Una celda no es sólo un espacio físico. Es un mundo contenido donde los derechos, la dignidad y la rehabilitación están siempre en tensión. Ahora, con la llegada de la inteligencia artificial a los servicios penitenciarios, Europa se enfrenta a una pregunta compleja: ¿qué lugar debe ocupar la tecnología en la gestión de seres humanos privados de libertad?
El pasado 9 de octubre de 2024, el Comité de Ministros del Consejo de Europa dio un paso importante al adoptar la Recomendación CM/Rec (2024)5. El documento no es solo una guía ética y técnica para los estados miembros; es también una advertencia: la inteligencia artificial puede mejorar las cárceles, sí, pero también multiplicar sus sombras si no se usa con cautela.
Entre las aplicaciones que contempla esta recomendación están los sistemas de gestión penitenciaria, la predicción de riesgos de reincidencia y los programas de rehabilitación. Todos ellos pueden beneficiarse de algoritmos que ayuden a detectar incumplimientos, valorar peligros o trazar rutas de reinserción. Pero con una condición esencial: que la decisión final siempre sea humana.
Aquí entra la gran preocupación: la ilusión de objetividad. Porque aunque los algoritmos no tienen prejuicios, sí los heredan. Si se entrenan con datos sesgados, los perpetúan. Y si bien se insiste en que el criterio humano debe prevalecer, la experiencia muestra que rara vez se contradice a una máquina.
En ese punto surge un dilema aún más profundo: si la IA predice nuestras acciones, ¿dónde queda nuestra libertad? ¿Es compatible esa previsibilidad con el concepto mismo de responsabilidad penal? Juristas como Pundik lo tienen claro: “El derecho penal debería tratar a las personas como si tuvieran libre albedrío, porque la alternativa erosiona el sentido mismo del reproche”.
La Recomendación se alinea con el nuevo Reglamento Europeo de Inteligencia Artificial (UE 2024/1689), que establece una estructura similar a la del RGPD para proteger los derechos fundamentales en el uso de tecnologías inteligentes. En ella, se establece que el contacto humano sigue siendo insustituible, especialmente en contextos tan delicados como el penitenciario.
No hablamos solo de algoritmos, hablamos de personas que, aunque hayan cometido errores, siguen teniendo derecho a un trato justo y a una oportunidad real de reintegrarse en la sociedad. Porque si aceptamos que las decisiones sobre libertad, rehabilitación o vigilancia se basen en datos y predicciones, abrimos una puerta peligrosa: la de un futuro donde el castigo pueda justificarse no por lo que se ha hecho, sino por lo que un sistema cree que podrías hacer.
Y cuando esa puerta se abre en prisión… pronto puede abrirse en otros lugares.