Jon Hernández y el peligro de usar IA como terapeuta: una advertencia necesaria

Jon Hernández y el peligro de usar IA como terapeuta: una advertencia necesaria

Jon Hernández, un divulgador de inteligencia artificial con muchísimos seguidores, lanzó una advertencia que resuena como un grito de alarma. En su reciente aparición en el podcast Roca Project, dejó claro que usar herramientas como ChatGPT para problemas de salud mental es, en sus propias palabras, una locura.

«Si conocéis a alguien que utiliza la IA como psicólogo, dadle dos hostias y sacarle el móvil de la mano», dijo sin rodeos. Y es que, a veces, es necesario ser directo para que la gente escuche. La inteligencia artificial puede hacer maravillas, pero ser terapeuta no es una de ellas. No todavía, al menos.

Hernández explicó que los sistemas actuales no están diseñados para ofrecer soporte psicológico profesional. No hay filtros, no hay garantías, no hay responsabilidad. Es como confiarle tus problemas a un robot que no puede ofrecerte un abrazo cuando lo necesitas. Y todos sabemos que, a veces, un buen abrazo es mejor que mil palabras.

Sin embargo, Hernández no cierra la puerta al futuro. Quizás, un día, se desarrollen aplicaciones supervisadas por psicólogos que puedan ofrecer un soporte emocional real y seguro. Pero ese día aún no ha llegado.

Mientras tanto, es vital recordar que la tecnología es una herramienta, no una solución mágica. La salud mental es un asunto serio y merece la atención de profesionales capacitados. La IA puede ser un complemento, pero nunca un sustituto. En este mundo cada vez más digital, no debemos olvidar la importancia del toque humano.