Espionaje algorítmico: por qué EE.UU. considera peligrosa a la IA de DeepSeek

Espionaje algorítmico: por qué EE.UU. considera peligrosa a la IA de DeepSeek

DeepSeek, la inteligencia artificial que incomoda a medio mundo

Durante años, la inteligencia artificial ha sido presentada como una herramienta para el desarrollo, la innovación y el progreso. Pero ¿y si también pudiera ser una herramienta de espionaje? Eso es lo que se teme desde Estados Unidos, donde DeepSeek, una empresa china emergente, ha pasado de ser una promesa tecnológica a una potencial amenaza nacional.

Todo comenzó con una sorpresa: DeepSeek logró desarrollar un modelo de IA altamente competitivo sin acceso a los famosos chips de Nvidia, los mismos que son el corazón de casi todas las grandes IA del mundo. Lo hizo gastando mucho menos y con una eficacia que dejó boquiabiertos a muchos expertos.

El terremoto en el mundo tecnológico no tardó en llegar. Pero lo que parecía un logro técnico se transformó pronto en un escándalo político. Varias investigaciones revelaron que DeepSeek podría estar compartiendo los datos recopilados con el gobierno chino, cumpliendo con las leyes del país que obligan a las empresas tecnológicas a colaborar con el Estado.

Un informe del Capitolio estadounidense fue aún más lejos: acusó a DeepSeek de ser “un activo de inteligencia” del Partido Comunista Chino. Según el documento, los datos que recoge esta IA de ciudadanos norteamericanos acabarían fluyendo por una infraestructura invisible para el usuario, conectada directamente a una empresa militar de Pekín.

Esto ha provocado una reacción en cadena. Estados como Taiwán, Italia o Australia ya han prohibido su uso en entornos gubernamentales. En EE.UU., algunos estados han seguido ese camino y el Congreso estudia ahora vetar completamente la herramienta en todos los dispositivos oficiales.

John Moolenaar, presidente del comité sobre competencia estratégica entre EE.UU. y China, fue rotundo: “No es solo otra app de IA. Es un arma del arsenal del Partido Comunista Chino diseñada para espiar a los estadounidenses y subvertir nuestras leyes.”

Mientras crece la tensión, algunas compañías como Anthropic tratan de marcar una diferencia. Su IA, llamada Claude, busca ser “útil, honesta e inofensiva”, analizando miles de conversaciones para mejorar su ética algorítmica.

En un mundo donde la tecnología ya no es neutral, y donde un chatbot puede ser tanto consejero como espía, el debate sobre la transparencia, la seguridad y la soberanía digital se vuelve urgente.