Sin instrucciones específicas. Sin reglas impuestas. Solo con un objetivo: entenderse entre sí. Así, agentes de inteligencia artificial han logrado algo que hasta ahora solo se atribuía a seres humanos: generar convenciones sociales espontáneas.
Un experimento, publicado en Science Advances, ha revelado que estos modelos, basados en grandes lenguajes como los de Meta o Anthropic, pueden establecer normas compartidas sin haber sido programados para ello. A través de un juego simple, el “naming game”, en el que los agentes debían coincidir en la elección de palabras, se observó cómo las preferencias individuales se transformaban en sesgos colectivos.
La clave está en la memoria y la interacción. Aunque ningún agente conocía las decisiones de los demás, la acumulación de experiencias pasadas permitió la aparición de patrones dominantes. Lo que comienza como una preferencia aleatoria, termina siendo una regla tácita. Una convención.
Andrea Baronchelli, coautor del estudio, subraya la relevancia del hallazgo: “vemos que los sesgos pueden emerger sin estar programados, y que incluso una minoría organizada puede imponer una norma al resto”. Esto, dice, puede ser útil para crear IA que adopte valores humanos… pero también plantea nuevos riesgos.
Desde otros sectores, como el académico Carlos Gómez Rodríguez, se cuestiona la profundidad de estas conclusiones. “No hay conflictos reales ni diversidad entre los agentes; no es comparable a las convenciones humanas”, señala.
Y sin embargo, el experimento lanza una advertencia: los LLM no solo reproducen lenguaje, también pueden llegar a estructurarlo. Lo que hoy es un juego, mañana podría ser una base de coordinación autónoma entre máquinas.

