¿Quién hubiera pensado que una inteligencia artificial, con toda su complejidad y avances, podría perder el hilo por culpa de un gato? Sí, un simple gatito. Un equipo de investigadores ha descubierto que los grandes modelos de lenguaje pueden ser atacados mediante una técnica llamada ‘CatAttack’. ¿Cómo funciona? Simplemente añadiendo una frase aleatoria sobre gatos después de una pregunta. Y voilà, el modelo se despista.
Imagina que estás resolviendo un problema matemático complicado y alguien te interrumpe para hablar de gatos. Así de fácil es distraer a una IA. Las pruebas mostraron que esta técnica puede reducir significativamente la precisión de las respuestas de modelos avanzados como DeepSeek R1 y los de OpenAI. ¡Incluso se triplicó la tasa de error!
La vulnerabilidad de los modelos a distracciones tan triviales como una frase sobre gatos es sorprendente. Y plantea una cuestión importante: ¿qué tan preparados estamos para confiar en estas inteligencias cuando pueden ser tan fácilmente manipuladas? Los investigadores sugieren que entrenar a los modelos con resistencia adversarial podría ser la solución. Pero por ahora, queda claro que la IA tiene mucho que aprender, y al parecer, a veces, todo lo que se necesita para que pierda el hilo es un gato.
Es curioso, ¿no? En nuestro afán por construir inteligencias artificiales que rivalicen con la mente humana, nos encontramos con que, al igual que nosotros, a veces también se distraen con las pequeñas cosas de la vida. Como los gatos.

