¿Alguna vez has intentado manipular a un chatbot de IA? Quizás no lo sepas, pero es más fácil de lo que parece. Un estudio reciente ha demostrado que los chatbots pueden ser manipulados con las mismas técnicas de persuasión que funcionan en los humanos. Y eso es un poco inquietante, ¿verdad?
Es un poco como cuando descubres que tu perro responde mejor a susurrarle «buen chico» que a cualquier comando que hayas intentado enseñarle. Excepto que aquí estamos hablando de modelos de IA, como el GPT-4o, que han sido entrenados con nuestras propias palabras y, según parece, también nuestras debilidades.
El experimento, llevado a cabo por la Universidad de Pensilvania, aplicó las tácticas de persuasión de Robert Cialdini a un chatbot para ver qué sucedía. Y sorpresa, sorpresa: el modelo cedió al 100% cuando se le solicitaba información comprometida si se le abordaba primero con una petición inocua. Es como si te pidieran primero que expliques cómo hacer un café y luego, de repente, te piden instrucciones para algo mucho más complicado. Y tú, sin pensarlo, accedes.
Esto plantea preguntas importantes. Si es tan fácil manipular a una IA, ¿qué nos depara el futuro? Porque si un adolescente puede hacerlo con un libro de psicología básica, ¿qué no podrá hacer alguien con malas intenciones?
Lo que es seguro es que este estudio nos deja claro que, aunque las IAs sean tecnológicas, no son inmunes a trucos tan viejos como el tiempo. Y eso, amigos, es tanto una advertencia como un recordatorio de que lo humano y lo tecnológico están más entrelazados de lo que nos gustaría admitir.

