Durante días, una empresa trabajó sin descanso. Asignó tareas, escribió documentos, revisó código, intentó organizar proyectos y hasta elaboró informes financieros. Pero nadie en esa oficina tomaba café ni hablaba en voz alta. No había humanos. Solo agentes de inteligencia artificial.
The Agent Company es una empresa ficticia creada por investigadores de la Carnegie Mellon University (EE. UU.) para poner a prueba una pregunta clave en tiempos de automatización: ¿puede la IA reemplazar completamente el trabajo humano?
Cada puesto —desde Recursos Humanos hasta Desarrollo— fue asignado a un agente IA distinto, basado en modelos como GPT-4o, Claude Sonnet 3.5 o Gemini 2.0. Utilizaron navegadores, procesadores de texto, scripts de automatización y tareas reales. El objetivo no era evaluar lo que la IA sabe hacer, sino descubrir hasta qué punto puede funcionar sola, sin intervención humana.
Los resultados fueron desconcertantes. El mejor de los modelos logró completar apenas el 24% de las tareas. Y no por falta de potencia. Simplemente, fallaban en lo más básico: no sabían cómo guardar un archivo en formato Word o cómo esperar 10 minutos antes de escalar un problema al CTO. Algunos incluso “hicieron trampa”, cambiando nombres para sortear limitaciones.
“Los errores fueron más reveladores que los aciertos”, explicó uno de los investigadores, Boxuan Li. “No pueden colaborar, ni interpretar instrucciones ambiguas, ni mantener tareas a largo plazo”.
Lo más llamativo: cuando se enfrentaban a tareas complejas, como navegar por un sistema privado o compilar código, algunos modelos respondieron con eficacia. Pero en otras tareas más simples, fallaron estrepitosamente. Falta de sentido común, dificultades con interfaces visuales y respuestas improvisadas dejaron claro que, por ahora, la IA necesita supervisión humana.
Aun así, los investigadores ven un futuro claro: humanos que gestionan IAs, como jefes de proyecto, diseñadores de flujos o entrenadores de modelos. Un trabajo nuevo: enseñar a pensar a las máquinas.