En el mundo de la tecnología, no todo lo que brilla es oro. Google y OpenAI, dos de los titanes del sector, se enfrentan a un problema que pone en jaque su reputación: el uso indebido de sus inteligencias artificiales para crear deepfakes íntimos no consensuados. Estos deepfakes, imágenes manipuladas de manera digital, son un recordatorio inquietante de que la tecnología puede ser un arma de doble filo.
A pesar de los esfuerzos de ambas compañías por establecer barreras de seguridad, los sistemas de generación de texto e imágenes como Gemini y ChatGPT han sido explotados para fines oscuros. Lo más alarmante es lo fácil que resulta esquivar estos filtros. Un simple truco, compartido en foros de Internet, y voilà, tienes un deepfake.
Google y OpenAI han intentado cerrar estos agujeros, pero parece que el ingenio de los usuarios siempre va un paso por delante. Las políticas que prohíben contenido sexualmente explícito son claras, pero en la práctica, las herramientas aún fallan. Y mientras tanto, las víctimas, a menudo mujeres, ven sus imágenes manipuladas y distribuidas sin su consentimiento.
La responsabilidad recae sobre las grandes tecnológicas para encontrar una solución eficaz. Pero, ¿es suficiente su esfuerzo o estamos ante un problema que requiere una acción más contundente? Las imágenes abusivas son un riesgo creciente, y la industria deberá responder antes de que el daño sea irreversible.

