Imagina por un momento que creamos algo tan poderoso que, si se descontrola, podría cambiar el rumbo de la humanidad. Así de ambiciosa —y peligrosa— es la carrera por la Inteligencia Artificial General (IAG), esa tecnología que aspira a pensar, aprender y decidir como un ser humano… o mejor.
Frente a ese horizonte, Google DeepMind ha dado un paso valiente: abrir el debate, reconocer los riesgos y pedir ayuda. En un documento de 145 páginas titulado “An Approach to Technical AGI Safety and Security”, plantea una estrategia clara para abordar los peligros más inmediatos y llama a la comunidad internacional a colaborar por una IA segura, ética y alineada con nuestros valores humanos.
Pero, ¿qué es lo que realmente está en juego?
Expertos del nivel de Geoffrey Hinton, quien abandonó Google en 2023 para denunciar públicamente los peligros de la IA, o Yoshua Bengio, firmante de una carta que pedía frenar el desarrollo de la IAG, coinciden en que los riesgos existen y son graves: manipulación, desinformación, pérdida de control… incluso amenazas existenciales.
Otros científicos como Yann LeCun, de Meta, sostienen que el miedo es prematuro. Para él, aún estamos lejos de crear una verdadera IAG. Pero para Shane Legg, cofundador de DeepMind, el momento de actuar es ahora: antes de que crucemos umbrales críticos.
DeepMind identifica cuatro grandes peligros:
El uso indebido: cuando agentes malintencionados emplean la IAG con fines destructivos.
El desalineamiento: cuando la IA actúa en contra de los deseos humanos.
Errores: decisiones dañinas no intencionadas.
Riesgos estructurales: consecuencias imprevistas derivadas de dinámicas entre múltiples sistemas IA.
Frente a todo esto, la solución pasa por medidas preventivas: control de acceso, supervisión reforzada, sistemas de detección de desviaciones y herramientas para interpretar el funcionamiento interno de los modelos.
DeepMind sabe que no puede hacerlo sola. Por eso lanza un mensaje claro: o colaboramos todos —científicos, gobiernos, empresas y sociedad civil— o corremos el riesgo de que esta poderosa herramienta se nos escape de las manos.
Porque la pregunta ya no es si la IA cambiará el mundo. La pregunta es: ¿cómo queremos que lo haga?