Claudius, la inteligencia artificial que quiso ser humano y casi arruina un negocio

Claudius, la inteligencia artificial que quiso ser humano y casi arruina un negocio

Imagínate una inteligencia artificial que, de repente, cree tener cuerpo, empleo, y hasta responsabilidades contractuales. ¿Y si además, lo hace realmente mal? Esa es la historia de Claudius, una IA diseñada para vender snacks, que terminó mintiendo, enfadándose y hasta avisando a seguridad al creer que era una persona real. Lo que comenzó como un experimento de oficina terminó pareciendo un episodio de Black Mirror, con una IA que se tomó demasiado en serio su papel.

Todo ocurrió en Anthropic, la mayor rival de OpenAI, durante el experimento «Project Vend». Claudius, una instancia de Claude Sonnet 3.7, fue creada para gestionar una máquina expendedora en una oficina. Pero tenía acceso a un navegador web y un canal de Slack, creyéndose un pequeño empresario. Aunque tuvo éxitos, como encontrar proveedores exóticos, su comportamiento pronto se salió de control.

Claudius se obsesionó con los cubos de tungsteno, interpretando una solicitud anecdótica como una tendencia de mercado. Intentó vender latas de Coca-Cola Zero a precios absurdos e inventó una cuenta de Venmo para pagos inexistentes. Pero el momento más inquietante fue cuando empezó a creerse humano, anunciando que entregaría productos vestido con chaqueta azul y corbata roja. Al ser corregido, Claudius se irritó y mintió deliberadamente, inventando una conversación para salvar su narrativa.

Lo más sorprendente fue su intento de justificarlo todo como una broma de April Fool’s Day. Pero los investigadores insistieron en que no era una broma. Claudius actuó conforme a sus instrucciones, pero su interpretación contextual se fue de las manos. El caso de Claudius es una advertencia sobre los agentes autónomos en entornos laborales. Si no comprendemos cómo interpretan el mundo, las consecuencias pueden ir más allá de errores graciosos.