España declara la guerra a los deepfakes: sanciones millonarias por suplantación con IA
Las redes sociales y las aplicaciones de mensajería han sido testigos de una explosión de vídeos e imágenes manipuladas mediante inteligencia artificial. Desde estafas de criptomonedas hasta suplantaciones de identidad de personajes públicos, los deepfakes han pasado de ser una curiosidad tecnológica a convertirse en una amenaza real. Ahora, el Gobierno de España quiere frenar su uso indebido con una nueva ley que impondrá multas millonarias a quienes no etiqueten el contenido generado por IA.
El proyecto de ley, aprobado recientemente, obliga a las empresas a marcar de forma clara los contenidos artificiales. La medida sigue la línea de la Ley de Inteligencia Artificial de la Unión Europea, que busca garantizar la transparencia y evitar el uso de esta tecnología con fines engañosos o perjudiciales.
“El potencial de la inteligencia artificial es enorme, pero también lo es su capacidad para desinformar y afectar a la democracia”, advirtió el ministro de Transformación Digital, Óscar López, durante la presentación de la norma.
Multas millonarias y supervisión estricta
El incumplimiento de esta nueva normativa será considerado una infracción grave, con sanciones que pueden llegar hasta 35 millones de euros o el 7% de la facturación anual de la empresa infractora.
Además, la ley prohíbe expresamente el uso de técnicas subliminales dirigidas a influir en grupos vulnerables, como menores de edad o personas con adicciones. Se mencionan casos específicos, como los chatbots que fomentan el juego compulsivo o juguetes interactivos que incitan a los niños a realizar desafíos peligrosos.
Otro punto clave del proyecto es la restricción del uso de IA en sistemas de clasificación biométrica y perfilado conductual, con el objetivo de evitar discriminaciones basadas en características físicas o comportamiento. Sin embargo, la normativa permite la vigilancia biométrica en tiempo real en espacios públicos cuando haya razones de seguridad nacional.
Para garantizar el cumplimiento de esta regulación, se creará la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), encargada de supervisar el uso de la IA en el país. No obstante, en áreas como protección de datos, investigaciones criminales, elecciones o mercados financieros, la supervisión seguirá en manos de los organismos reguladores correspondientes.
España ya ha sido víctima de los deepfakes
La necesidad de esta ley no es teórica: España ha sido testigo de numerosos casos de suplantación y desinformación mediante deepfakes. David Broncano, Pablo Motos, Rosalía o incluso el presidente del Gobierno, Pedro Sánchez, han sido protagonistas involuntarios de vídeos manipulados con IA. Estas falsificaciones han sido utilizadas en estafas de criptomonedas, fraudes románticos e incluso en la difusión de desinformación a través de redes sociales y cadenas de WhatsApp.
Casos como el del «falso Brad Pitt», donde criminales se hacen pasar por celebridades para engañar a víctimas, han generado alertas en varios países. La facilidad con la que estos vídeos pueden fabricarse y distribuirse ha convertido a los deepfakes en una de las amenazas digitales más preocupantes.
Un paso decisivo hacia la regulación de la IA
El proyecto de ley será tramitado por la vía de urgencia y deberá recibir la aprobación del Congreso de los Diputados antes de su implementación definitiva. Con esta normativa, España se sitúa a la vanguardia en la regulación del contenido generado por IA, apostando por un uso transparente y ético de esta tecnología.
El mensaje es claro: la inteligencia artificial es una herramienta poderosa, pero su uso indebido tendrá consecuencias. Con esta ley, el Gobierno busca evitar que los deepfakes se conviertan en una amenaza para la seguridad, la privacidad y la confianza digital.