El experimento británico que quiere anticiparse al delito con algoritmos

El experimento británico que quiere anticiparse al delito con algoritmos

Una idea que hasta hace poco solo parecía posible en películas como Minority Report comienza a tomar forma en el Reino Unido. El gobierno británico ha confirmado que está desarrollando un proyecto basado en inteligencia artificial capaz de predecir delitos violentos antes de que ocurran. Lo han llamado «Proyecto de predicción de homicidios».

La intención oficial es clara: se trata de una prueba experimental, no de una aplicación inmediata. El sistema analiza datos de entre 100.000 y 500.000 personas, centrado en delincuentes ya condenados y factores como nombre, género, salud mental, adicciones o etnia. La finalidad sería identificar posibles reincidentes o riesgos futuros.

Pero la polémica ha sido inevitable. Statewatch, una organización que defiende los derechos civiles, ha denunciado que este algoritmo también accede a información de víctimas, algo que las autoridades niegan rotundamente. Además, acusan al sistema de reforzar el racismo institucional, al depender de variables sensibles que podrían perpetuar sesgos históricos del sistema legal.

No es la única nación que está flirteando con este tipo de tecnología. Argentina, China y Corea del Sur también trabajan en modelos similares. En el caso argentino, el propio presidente Javier Milei ha anunciado que están desarrollando un sistema de predicción criminal, lo que ha abierto aún más el debate global sobre hasta qué punto debemos permitir que las máquinas intervengan en decisiones tan delicadas.

Desde el gobierno británico aseguran que su proyecto es simplemente una evolución de herramientas que ya existen, como aquellas que predicen la probabilidad de que un preso vuelva a delinquir tras su liberación. Insisten en que no se trata de un sistema de vigilancia masiva, sino de un instrumento para apoyar decisiones judiciales y policiales.

Sin embargo, la frontera entre prevención y control se vuelve cada vez más difusa. ¿Qué ocurre si un algoritmo se equivoca? ¿Qué responsabilidad tiene una máquina al etiquetar a alguien como potencial criminal? ¿Podemos confiar en sistemas que, por naturaleza, arrastran sesgos implícitos?

El dilema está servido. Lo que está en juego no es solo la eficiencia del sistema judicial, sino el modelo de sociedad que queremos construir. Una sociedad en la que la tecnología ayude a proteger… sin vulnerar derechos fundamentales.

Y en este cruce de caminos, toca preguntarnos: ¿cuánta libertad estamos dispuestos a sacrificar por la promesa de seguridad?