GPT-4 vence a humanos en debates personalizados: la manipulación que no se ve

GPT-4 vence a humanos en debates personalizados: la manipulación que no se ve

En los últimos años, los grandes modelos de lenguaje como GPT-4 han pasado de responder preguntas a rebatir opiniones. Y ahora, lo hacen mejor que los humanos. Un estudio reciente, publicado en Nature Human Behaviour, revela que las inteligencias artificiales son más persuasivas que nosotros en un 64% de los debates… siempre que dispongan de información personal sobre su oponente.

El experimento, liderado por el investigador Francesco Salvi desde la Escuela Politécnica Federal de Lausana, enfrentó a 900 personas en discusiones sobre temas sociales y éticos. Algunas lo hacían contra otras personas; otras, contra GPT-4. El matiz: en ciertos casos, la IA tenía acceso a datos personales básicos de su contrincante —edad, sexo, ideología, nivel educativo—, sin mencionarlos explícitamente. Eso bastó para cambiar las reglas del juego.

Cuando la IA no sabía nada de su interlocutor, empataba con los humanos. Pero al tener acceso a datos, sus argumentos se volvían quirúrgicos, personalizados y eficaces. No manipulaban los hechos, pero sí la forma de presentarlos: más accesible, más resonante. Como un vendedor que ajusta su discurso a cada cliente, la IA aprendió a debatir como si conociera al otro desde siempre.

Los investigadores alertan del riesgo que esto supone en manos equivocadas. Si una máquina puede moldear sus respuestas para influir emocionalmente en función del perfil del usuario, ¿qué impide que se use para campañas de desinformación, manipulación política o estrategias comerciales agresivas?

Empresas como Kaspersky y Check Point ya han advertido que muchas IA acceden a metadatos personales —sin consentimiento explícito— para afinar su lenguaje. Y aunque el modelo no tenga intenciones propias, quien lo entrena o emplea sí puede tenerlas.

La personalización no es mala por definición. Pero, en un entorno donde la persuasión puede disfrazarse de conversación inocente, la frontera entre informar y manipular se vuelve difusa. Por eso, los autores del estudio proponen regulaciones: transparencia, auditorías y límites estrictos al uso de IA persuasiva en entornos como la política o la salud.

El problema no es que la IA nos convenza. Es que, si no lo vigilamos, puede hacerlo sin que nos demos cuenta.