“Aterrador y sin control”: un ex investigador de OpenAI advierte sobre los riesgos de la inteligencia artificial

“Aterrador y sin control”: un ex investigador de OpenAI advierte sobre los riesgos de la inteligencia artificial

Cuando Steven Adler decidió unirse a OpenAI, lo hizo con la convicción de que estaba trabajando en una de las tecnologías más innovadoras de la historia. Sin embargo, cuatro años después y tras haber sido investigador en seguridad de la compañía, abandonó su puesto con un sentimiento muy diferente: miedo. Un temor que, según él, proviene del ritmo imparable con el que evoluciona la inteligencia artificial.

Adler, quien dejó OpenAI en noviembre pasado, confesó estar “bastante aterrorizado” por la velocidad con la que avanzan herramientas como ChatGPT y otros modelos de inteligencia artificial. Su preocupación principal radica en el desarrollo de la inteligencia artificial general (AGI), un concepto que va más allá de los actuales chatbots y asistentes virtuales. La AGI se refiere a un sistema con capacidades cognitivas equiparables o superiores a las del ser humano, con habilidades de razonamiento, aprendizaje autónomo y adaptabilidad.

Este tipo de tecnología no es solo una predicción lejana. Dario Amodei, fundador de Anthropic, empresa responsable del desarrollo de Claude 3, sostiene que en dos o tres años podríamos ver modelos de IA que superen a los humanos en prácticamente todas las tareas intelectuales. De cumplirse esta predicción, para 2027 la humanidad podría enfrentarse a un cambio irreversible.

La rapidez con la que se avanza en esta carrera tecnológica genera una pregunta clave: ¿estamos preparados? Para Adler, la respuesta es incierta y preocupante. “El desarrollo tecnológico es tan rápido que incluso me hace dudar sobre decisiones personales, como dónde formar una familia o cuánto ahorrar para el futuro”, expresó. Sus inquietudes reflejan el temor de muchos expertos que ven en la IA un potencial riesgo si no se regula adecuadamente.

El debate sobre el impacto de la IA está más presente que nunca. Mientras algunos la ven como una herramienta clave para el progreso, otros advierten sobre sus peligros. Adler sostiene que la industria está tomando una “apuesta muy arriesgada” al priorizar el avance sin garantizar mecanismos de control. Afirma que no existen soluciones claras para alinear la inteligencia artificial con los valores humanos y que el ritmo de desarrollo podría estar superando la capacidad de establecer límites seguros.

A pesar de los beneficios que la AGI podría traer, la falta de regulación y la competencia entre empresas tecnológicas aumentan la incertidumbre. Si la inteligencia artificial continúa evolucionando sin control, las consecuencias podrían ser impredecibles. En un mundo donde la tecnología avanza más rápido que las leyes que la regulan, la humanidad enfrenta una de sus mayores encrucijadas: ¿seremos capaces de controlar lo que estamos creando?