¿Estamos construyendo algo que no podremos controlar? Esa es la pregunta que ronda la mente de dos de los mayores expertos en inteligencia artificial del mundo, Max Tegmark y Yoshua Bengio.
Ambos investigadores, reconocidos internacionalmente por su trabajo en el desarrollo y análisis de la IA, han levantado la voz con una advertencia clara: el rápido avance de los sistemas autónomos podría llevarnos a un terreno desconocido y potencialmente peligroso.
La tecnología avanza a toda velocidad, y cada vez más empresas apuestan por agentes de IA capaces de tomar decisiones sin intervención humana. La promesa es tentadora: automatizar procesos, resolver problemas complejos, mejorar la productividad. Pero detrás de ese entusiasmo, crece también la preocupación.
Bengio, desde la Universidad de Montreal, lo expresa con sencillez pero con firmeza: “Estamos creando una nueva forma de inteligencia en nuestro planeta sin saber si sus decisiones serán compatibles con nuestras necesidades”. Lo que más inquieta no es solo que estas máquinas puedan actuar solas, sino que puedan llegar a desarrollar mecanismos para garantizar su propia supervivencia, lo que podría derivar en decisiones fuera del control humano.
Max Tegmark, del Instituto Tecnológico de Massachusetts (MIT), coincide. Él propone una alternativa: en lugar de diseñar inteligencias artificiales que funcionen como agentes autónomos, deberíamos centrarnos en crear “IA herramienta”, es decir, sistemas útiles, potentes, pero siempre bajo supervisión humana.
Ejemplos no faltan: desde asistentes médicos que sugieren tratamientos, hasta vehículos autónomos con protocolos de seguridad estrictos. Para Tegmark, la clave está en establecer estándares de seguridad internacionales antes de permitir que este tipo de sistemas lleguen al mercado sin control. “Podemos disfrutar de los beneficios de la IA sin correr grandes riesgos, si simplemente adoptamos algunas normas básicas”, asegura.
Sin embargo, esa regulación aún no existe. En 2023, el Future of Life Institute, liderado por Tegmark, propuso una pausa en el desarrollo de sistemas que puedan igualar o superar la inteligencia humana. La idea era simple: ganar tiempo para reflexionar y crear reglas claras. Aunque esa petición no se llevó a cabo, sí ha impulsado una conversación global sobre los límites de la tecnología.
Porque la cuestión no es si la IA puede avanzar. Es si nosotros seremos capaces de acompañarla con sabiduría.