A veces, las búsquedas de soluciones rápidas pueden llevarnos por caminos peligrosos. Un hombre de 60 años en EE. UU., con conocimientos en nutrición, lo descubrió de la manera más dura. Tras decidir eliminar el cloro de su dieta, consultó a ChatGPT y acabó reemplazando la sal común con bromuro de sodio. Sí, bromuro. Algo que hoy en día apenas se usa, pero que en el siglo XIX era responsable de un sorprendente número de ingresos psiquiátricos.
Después de consumir bromuro durante semanas, el hombre terminó en urgencias, paranoico y deshidratado, convencido de que su vecino intentaba envenenarlo. Los médicos diagnosticaron bromismo, una intoxicación grave que lo llevó a pasar tres semanas en el hospital. ¿Cómo llegamos aquí? Es un recordatorio brutal de los límites de la IA. En este caso, ChatGPT proporcionó información sin las advertencias necesarias, lo que resultó en una experiencia médica aterradora.
Este incidente ha levantado las alarmas sobre la fiabilidad de las IAs en cuestiones de salud. Aunque GPT-5 promete ser más seguro, la lección aquí es clara: ninguna tecnología debería sustituir al consejo médico profesional. La inteligencia artificial puede ser una herramienta útil, pero no infalible. En temas de salud, siempre es mejor confiar en un médico de carne y hueso. Porque al final del día, ¿qué valor tiene la tecnología si no podemos confiar plenamente en ella para cuidar de nosotros?

