Aquí estamos, en la cúspide de lo que podría ser el próximo gran salto tecnológico: la inteligencia artificial general (AGI). Pero, ¿quién vigila al vigilante? Esa es la pregunta del millón. Y es que The OpenAI Files nos ha puesto a todos a pensar seriamente sobre los dilemas éticos y de supervisión que rodean a OpenAI y su carismático líder, Sam Altman.
OpenAI empezó con una promesa noble: IA para el bien de la humanidad. Pero, como sucede a menudo, el idealismo chocó de frente con la cruda realidad del mercado. Para seguir a flote, OpenAI tuvo que transformarse en una estructura híbrida, que ya no es del todo altruista. Eliminaron el tope a los beneficios para contentar a los inversores, lo que lleva a preguntarnos: ¿dónde quedó la justicia intergeneracional que tanto pregonaban?
El informe también destapa una «cultura de imprudencia». Productos lanzados sin las debidas evaluaciones de seguridad, conflictos de interés y un liderazgo que algunos describen como caótico. La advertencia de que Sam Altman no debería tener el dedo sobre el botón de la AGI es bastante reveladora.
La cuestión es, ¿cómo aseguramos que la AGI se desarrolle de manera ética y responsable? Las propuestas incluyen desde auditorías algorítmicas internacionales hasta transparencia en los procesos de entrenamiento. Porque, al igual que la imprenta o la revolución industrial, la AGI tiene el potencial de cambiar el mundo. Pero sin supervisión adecuada, también podría amplificar desigualdades y conflictos. Así que, tal vez, es hora de pensar en un nuevo contrato social para la era de la inteligencia artificial.