La AGI, ¿milagro o amenaza? El dilema que inquieta a Stuart Russell

La AGI, ¿milagro o amenaza? El dilema que inquieta a Stuart Russell

Cuando Stuart Russell escribió su libro Human Compatible, no buscaba alarmar. Buscaba que pensáramos. Su célebre frase —»La inteligencia artificial puede ser el mayor evento de la historia humana… y el último»— no es una profecía, sino una advertencia nacida de décadas de investigación. Y, sobre todo, de una profunda preocupación: la posibilidad de que construyamos algo que no podamos controlar.

Russell, una de las voces más influyentes en el campo de la IA, no se refiere a los asistentes virtuales o los algoritmos que nos recomiendan series. Habla de la llamada AGI —inteligencia artificial general—, una forma de inteligencia que superaría nuestras capacidades humanas en prácticamente todo. Algo más que un software: una nueva clase de mente, con su propia lógica y autonomía.

La idea suena a ciencia ficción. Y sin embargo, gigantes tecnológicos la persiguen como el Santo Grial de la innovación. Algunos expertos creen que la AGI podría curar enfermedades, resolver el cambio climático o rediseñar la economía. Otros temen que sea el principio del fin. ¿Y si sus objetivos no coincidieran con los nuestros?

El verdadero problema, según Russell, no es que la AGI sea inevitable, sino que podríamos construirla sin comprender sus consecuencias. Como poner en marcha una máquina sin saber si tiene freno. Por eso insiste en la necesidad de desarrollar sistemas compatibles con los valores humanos, alineados con nuestras intenciones y no simplemente con nuestras órdenes.

Hoy, el debate ya no es sólo técnico. Es político, ético y social. ¿Estamos preparados para delegar decisiones críticas en una inteligencia que aún no comprendemos del todo? ¿Podremos establecer límites antes de que sea demasiado tarde?

Russell no está solo. Otros científicos como Geoffrey Hinton o el filósofo Nick Bostrom han levantado la voz. Pero el tiempo corre, y la carrera por liderar la próxima revolución tecnológica no espera.