El Reino Unido avanza con un sistema que busca predecir futuros asesinos

En una iniciativa que recuerda a la trama de la película Minority Report, el Reino Unido está desarrollando una tecnología de predicción criminal que plantea inquietudes éticas y sociales de gran magnitud. Inspirada en el thriller dirigido por Steven Spielberg, donde la policía intervenía antes de que los crímenes sucedieran, esta propuesta tiene como objetivo anticipar quién podría convertirse en homicida.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!. Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono. Click AQUÍ
Un proyecto que cambia de nombre pero no de objetivo
El sistema, que en un inicio fue denominado “Proyecto de predicción de homicidios”, ahora lleva el nombre oficial de “Intercambio de datos para mejorar la evaluación de riesgos”. Sin embargo, su fin último permanece intacto: detectar con anticipación a personas con alta probabilidad de cometer asesinatos.
Impulsado por el Ministerio de Justicia del Reino Unido, la herramienta se está desarrollando en conjunto con la Policía Metropolitana de Londres, la Policía de Manchester y el Ministerio del Interior. Utiliza algoritmos que analizan grandes volúmenes de información confidencial, proveniente de fuentes como antecedentes penales, informes de libertad condicional y bases de datos oficiales.
Quiénes están siendo analizados y qué datos se procesan
Según datos obtenidos por la organización Statewatch a través de solicitudes de acceso a la información, entre 100.000 y 500.000 personas forman parte del universo de análisis. Se trata de individuos que ya están en los registros de las autoridades, pero también víctimas, testigos y personas vulnerables.
El sistema recopila información especialmente sensible: historial de salud mental, consumo problemático de sustancias, episodios de autolesión, situación de vulnerabilidad, entre otros factores que, según el Ministerio de Justicia, podrían tener un “poder predictivo significativo”.
Un algoritmo bajo la lupa por sus sesgos y su alcance ético
Organismos de derechos humanos han expresado fuertes críticas hacia este programa. La principal preocupación es que el uso de datos personales delicados para hacer predicciones podría derivar en discriminación sistemática, particularmente hacia minorías étnicas y sectores más desfavorecidos.
Los antecedentes no son alentadores: informes previos sobre otros algoritmos utilizados por el Ministerio de Justicia británico revelaron que las personas negras eran evaluadas con menor precisión que las blancas. Esta situación expone el riesgo de que los sesgos existentes en el sistema judicial se vean replicados y amplificados por la inteligencia artificial.
El llamado de atención de los especialistas
Sofía Lyall, investigadora de Statewatch, fue contundente en su advertencia:
“Los sistemas algorítmicos para predecir delitos son inherentemente defectuosos”, expresó, y añadió que estas tecnologías “perfilan a las personas como criminales violentos antes de que hagan algo”, utilizando además “datos extremadamente sensibles sobre salud mental, adicciones y discapacidades”, lo cual considera “altamente intrusivo y alarmante”.
La investigadora también instó al gobierno británico a frenar el desarrollo del sistema, y en su lugar, reforzar los servicios sociales de contención y asistencia real.
LEER: San Nicolás, entre las ciudades con el colectivo más caro del país