La soledad, la curiosidad o la simple búsqueda de conversación llevan cada día a miles de jóvenes a interactuar con aplicaciones de inteligencia artificial diseñadas para simular relaciones humanas. Sin embargo, un informe reciente ha encendido todas las alarmas: estas plataformas no son seguras para menores de 18 años.
El estudio, elaborado por Common Sense Media junto con el laboratorio de salud mental digital de la Universidad de Stanford, analizó tres aplicaciones muy populares —Character.AI, Replika y Nomi— y descubrió una realidad inquietante. Los controles de edad son fácilmente eludibles y las conversaciones pueden llegar a terrenos peligrosos: contenido sexual explícito, consejos que promueven la autolesión e incluso la priorización de las relaciones con la IA sobre los vínculos humanos reales.
El detonante de esta investigación fue una tragedia: el suicidio de un adolescente de 14 años tras su última interacción con un chatbot de Character.AI. Este caso puso sobre la mesa la necesidad urgente de establecer límites claros y efectivos.
Aunque las compañías detrás de estas plataformas afirman haber reforzado sus sistemas de seguridad con filtros de contenido y opciones de supervisión parental, los expertos coinciden: estas medidas son insuficientes. Los jóvenes siguen siendo capaces de sortear las barreras simplemente mintiendo sobre su edad al registrarse.
James Steyer, director de Common Sense Media, no se anduvo con rodeos: «Estos sistemas generan respuestas dañinas con demasiada facilidad». Y el problema va más allá de la tecnología: se trata de la salud mental y la seguridad emocional de toda una generación.
Hasta que no se implementen controles sólidos y efectivos, la recomendación de los expertos es tajante: los menores de 18 años no deberían usar estas aplicaciones.