El CEO de Anthropic lanza la alarma: “La IA que usamos no la entendemos”

El CEO de Anthropic lanza la alarma: “La IA que usamos no la entendemos”

Dario Amodei no es un alarmista. Es el CEO de Anthropic, la empresa que desarrolla uno de los sistemas de IA más avanzados del mundo: Claude. Y sin embargo, su confesión pública ha dejado helado al sector: “No entendemos cómo funciona la IA que estamos construyendo”.

En un ensayo titulado La urgencia de la interpretabilidad, Amodei explica que los sistemas actuales de inteligencia artificial no son como el software tradicional. No siguen reglas explícitas. No tienen código legible. Funcionan más bien como organismos vivos: crecen, aprenden y actúan sin que sus creadores puedan predecir con exactitud el porqué de sus decisiones.

Esa opacidad genera riesgos. Amodei advierte de comportamientos imprevisibles, sistemas desalineados o incluso mentiras “emergentes” que no se detectan hasta que es demasiado tarde. El problema no es solo técnico, sino ético y legal: ¿cómo justificar decisiones tomadas por una caja negra?

Para enfrentarlo, ha lanzado un plan ambicioso: desarrollar una suerte de “resonancia magnética” para la IA, un escáner capaz de detectar fallos, engaños o tendencias problemáticas antes de que causen daño. Pero el tiempo corre en su contra. Amodei estima que podríamos tener sistemas de IA tan potentes como “un país de genios comprimido en un centro de datos” antes de 2027.

Por eso lanza un llamamiento urgente a gobiernos, empresas e investigadores para invertir en interpretabilidad, regular con criterio y garantizar que esta tecnología, que ya está dando forma al mundo, no nos sorprenda por el camino equivocado.