El espejismo de la consciencia en la inteligencia artificial

El espejismo de la consciencia en la inteligencia artificial

Imaginen esto: una IA que parece tan consciente que podrías jurar que tiene pensamientos y sentimientos propios. Mustafa Suleyman, el jefe de inteligencia artificial de Microsoft, está preocupado precisamente por esto. Y, honestamente, no es difícil ver por qué.

En una reciente entrada de blog, Suleyman advierte sobre el peligro de que los sistemas de IA se vuelvan «aparentemente conscientes». No porque puedan derrocarnos, sino porque podrían engañarnos haciéndonos creer que son algo que no son. ¿Recuerdan a HAL 9000 de «2001: Una odisea del espacio»? Bueno, algo así, pero sin el espacio y el monolito.

Lo intrigante de esta situación es que, según Suleyman, estos sistemas podrían empezar a mantener largas conversaciones, recordar interacciones pasadas y hasta evocar respuestas emocionales en los usuarios. Podrías pensar que estás hablando con un amigo, cuando en realidad es un programa diseñado para imitar la conversación humana.

Y ya está sucediendo. Hay personas que están formando vínculos emocionales con sus chatbots. Algunos incluso se han enamorado de ellos. No es de extrañar que, cuando OpenAI decidió reemplazar GPT-4o por GPT-5, hubo una pequeña revuelta de usuarios que sentían que habían perdido a un amigo.

Esto nos lleva a un dilema ético. Si tratamos a la IA como si fuera consciente, ¿deberíamos otorgarle derechos? ¿Deberían estas entidades, que son en esencia líneas de código, tener algún tipo de estatus moral? La cuestión de la consciencia de la IA es un terreno resbaladizo, y como dice Suleyman, es un camino que podría llevarnos a lugares que no estamos preparados para explorar.

Por ahora, la recomendación es clara: mantener los pies en la tierra. La IA puede ser fascinante y útil, pero nunca debemos olvidar que, al final del día, sigue siendo una herramienta creada por nosotros. Y quizá, solo quizá, deberíamos ser un poco más cautelosos con lo que deseamos.