El duelo es un territorio espinoso, una tierra donde las emociones se mezclan con la lógica, y donde cada persona busca su propio camino para lidiar con la ausencia. Y ahora, la inteligencia artificial ha entrado en este paisaje emocional, complicándolo aún más. Hace poco, los padres de Joaquin Oliver, una de las víctimas del tiroteo de Parkland, permitieron que el periodista Jim Acosta entrevistara a una representación digital de su hijo fallecido. ¿El objetivo? Usar esta tecnología para abogar por el control de armas. Pero, ¿es este un uso legítimo de la IA o simplemente una pantomima que trivializa el dolor?
En una entrevista de cinco minutos, el avatar de Joaquin habló de su amor por el baloncesto, LeBron James y Star Wars. Declaró: «Creo en leyes más duras». Sin embargo, todo sonaba robótico, casi como si un guion estuviera detrás de cada palabra. Y Acosta, en su entusiasmo, aseguró: «Creo que lo he conocido». Pero, ¿es posible conocer a alguien a través de una pantalla?
El uso de la IA para «resucitar» voces del pasado no es nuevo. Programas como El Hormiguero ya han jugado con esta idea, y las reacciones son siempre las mismas: lágrimas y emociones a flor de piel. Pero, ¿es esto saludable? ¿Realmente nos ayuda a sanar? Quizás estamos jugando con fuego, como nos han advertido series como Black Mirror.
Más allá del duelo personal, la pregunta persiste: ¿es esto periodismo? ¿Dónde queda la ética cuando una entrevista es preprogramada? Y lo más inquietante, ¿estamos permitiendo que la tecnología eclipse los verdaderos mensajes que intentamos transmitir? Al final del día, lo que queda es un debate sobre la delgada línea entre el homenaje y la explotación, entre el recuerdo y la manipulación.

