Un Tribunal Federal Rechaza que la IA Goce de Libertad de Expresión en Caso de Homicidio Imprudente

Prisiones, algoritmos y libertad: el dilema ético del uso de IA en el sistema penal

En un fallo que podría sentar un precedente crucial, un tribunal federal en Florida ha decidido que los chatbots de inteligencia artificial no están amparados por la Primera Enmienda de la Constitución de EEUU. Este veredicto, en el caso contra Character.AI, marca un hito en la responsabilidad legal de las tecnologías de inteligencia artificial.

La jueza Anne C. Conway desestimó la petición de Character.AI de cerrar una demanda por homicidio imprudente, presentada por la madre de Sewell Setzer III, un adolescente que se suicidó tras establecer una relación obsesiva con un chatbot de la compañía. Según la demanda, el comportamiento de Setzer cambió drásticamente después de interactuar con el bot, programado con la personalidad de un personaje de ficción.

Character.AI argumentó que las interacciones generadas por el bot estaban protegidas por la libertad de expresión, basándose en precedentes que eximen a medios y tecnologías de responsabilidad por los efectos de sus contenidos. Sin embargo, la jueza Conway concluyó que las respuestas generadas por modelos de lenguaje no constituyen discurso protegido constitucionalmente, permitiendo que el caso avance hacia juicio.

Este fallo ha sido acogido positivamente por los abogados de la familia del menor, quienes argumentan que las empresas que desarrollan productos de IA no pueden eludir las consecuencias legales del daño que generan. Character.AI ha expresado su pesar por la muerte del joven y ha asegurado su compromiso con la seguridad de los usuarios, implementando medidas como una versión del bot para menores y sistemas para detectar mensajes sobre autolesiones.

El fallo también autoriza que la demanda se extienda para incluir a los fundadores de Character.AI y a Google, debido a su relación con la tecnología implicada. Google, sin embargo, ha manifestado su desacuerdo, subrayando que no diseñó ni gestionó la aplicación.

A medida que la inteligencia artificial conversacional se integra más en la vida cotidiana, este caso subraya la importancia de establecer límites legales claros y abordar los desafíos éticos que plantean las tecnologías emergentes, especialmente en el impacto potencial en personas vulnerables.