La Inteligencia Artificial como Maestra de la Persuasión: Un Experimento Revelador

La Inteligencia Artificial como Maestra de la Persuasión: Un Experimento Revelador

Imagina un debate en el que tu oponente no es humano, sino una inteligencia artificial (IA). Este escenario, aunque parezca sacado de una película de ciencia ficción, fue el núcleo de un estudio fascinante publicado en la revista Nature Human Behaviour. Investigadores de EPFL en Suiza, la Fundación Bruno Kessler en Italia y la Universidad de Princeton en Estados Unidos, liderados por Francesco Salvi y Manoel Horta, unieron fuerzas para descubrir si las aplicaciones basadas en modelos extensos de lenguaje (LLM) pueden superar a los humanos en el arte de la persuasión.

El experimento involucró a 900 estadounidenses de diversas características sociodemográficas. Divididos en dos grupos, la mitad debatió con otro ser humano, mientras que la otra mitad lo hizo con ChatGPT, específicamente la versión GPT-4. El tema de discusión era un asunto de actualidad, elegido al azar. En una parte del experimento, a la contraparte (humana o IA) se le proporcionó información demográfica específica de su oponente de debate, como género, edad y afiliación política, para mejorar sus argumentos.

Los resultados fueron sorprendentes. Cuando se disponía de información personal, la IA resultó ser más convincente que los humanos en un 64,4% de los casos. Sin embargo, si no tenían acceso a esos datos, tanto humanos como máquinas eran igual de efectivos. Esto sugiere que las IA pueden adaptar sus mensajes de manera instantánea y efectiva, algo que los humanos requieren más tiempo y esfuerzo para lograr.

La capacidad de persuasión de las IA podría cambiar el juego en áreas como el marketing y las campañas políticas. Sin embargo, los investigadores advierten sobre los riesgos de manipulación encubierta. Recomiendan a las plataformas y reguladores que supervisen y, si es necesario, limiten el uso de modelos LLM en contextos persuasivos sensibles.

A pesar de sus hallazgos, los investigadores reconocen limitaciones en su estudio, como el hecho de que todos los participantes eran estadounidenses y el entorno de debate era controlado y artificial. Pero los expertos coinciden en que estos resultados son relevantes y extrapolables a otros contextos internacionales, como el español.

David Losada, catedrático en la Universidad de Santiago de Compostela, subraya la necesidad de monitorear el uso de estas herramientas desde una perspectiva ética y de mitigación de riesgos. Las implicaciones de esta capacidad de persuasión pueden ser significativas, tanto para fines lícitos como ilícitos. El estudio es un recordatorio de que, aunque la IA puede ser una herramienta poderosa, también requiere una gestión cuidadosa para evitar consecuencias negativas.