Cuestionada la máquina que predice futuros delitos en EE.UU.

Una investigación demuestra que el algoritmo COMPAS, utilizado por los jueces para dictar sentencia, falla tanto como un humano. El software favorece a los criminales blancos frente a los negros

El algoritmo COMPAS Fotolia

ABC.es

En «Minority Report», una interesante película de ciencia ficción dirigida por Steven Spielberg y basada en un relato corto de Philip K. Dick, la delincuencia es casi eliminada gracias a las visiones de tres mutantes con la habilidad de predecir el futuro. Esto permite a las autoridades arrestar a los criminales antes de que puedan cometer el delito. Muy lejos estamos de algo semejante, pero la justicia estadounidense sí utiliza su propio «mutante» para saber si alguien puede volver a reincidir . Se trata de un sofisticado software llamado COMPAS , una herramienta informática que ayuda a los jueces a dictar, por ejemplo, si alguien debe entrar en prisión o salir en libertad condicional, o el tiempo que debe permanecer en la cárcel, según su puntuación de riesgo de volver a las andadas.

Pero que una máquina decida sobre la vida humana siempre da lugar a controversias. Investigadores y defensores de los derechos civiles han dudado sobre su fiabilidad y temido que sus resultados sean injustos. En el caso de COMPAS, había sospechas de que el sistema favorecía a los ajusticiados blancos frente a los negros. Un equipo de investigadores liderado por Julia Dressel, estudiante de informática en el Dartmouth College, decidió salir de dudas. Ha estudiado la validez de los resultados de COMPAS, y lo que ha encontrado es de lo más inquietante. El algoritmo no es más fiable que cualquier humano sin preparación.

Dressel se dirigió a la base de datos ProPublica , una colección de puntuaciones de COMPAS para 10.000 acusados en espera de juicio en el Condado de Broward, Florida, así como también sus registros de arrestos para los siguientes 2 años.

La investigadora seleccionó al azar a 1.000 de los acusados ​​y registró siete datos sobre cada uno, incluyendo su edad, sexo y número de detenciones previas. Luego reclutó a 400 personas a través Amazon Mechanical Turk, un servicio de crowdsourcing en línea para encontrar voluntarios de investigación. Cada voluntario, sin preparación previa y de diferentes edades y niveles educativos, recibió perfiles de 50 acusados y debía pronosticar si volverían a ser arrestados dentro de dos años, el mismo estándar que utiliza COMPAS. Los humanos acertaron casi con la misma frecuencia que el algoritmo, entre el 63% y el 67% de las veces, en comparación con el 65% de COMPAS, según informa la revista «Science Advances».

Resulta que los humanos puntúan tan bien como el algoritmo cuando predicen correctamente la detención de alguien. Pero cuando se equivocan, revelan un sesgo racial similar. Tanto el hombre como la máquina supusieron incorrectamente que habría más arrestos de personas negras de lo que realmente sucedió (falsos positivos) y menos arrestos de blancos (falsos negativos).

Más sencillo, igual resultado

En un segundo experimento, Dressel exploró si un algoritmo simple podría vencer a COMPAS, que normalmente utiliza seis factores de un cuestionario de 137 puntos para evaluar el riesgo (En realidad, la mayoría de los elementos determinan qué programas de rehabilitación pueden servir a un delincuente). La investigadora creó su propio algoritmo, con solo dos factores: la edad y el número de condenas anteriores. Esa fórmula simple obtuvo predicciones correctas el 67% de las veces, similar a la puntuación de COMPAS.

En EE.UU., algoritmos similares influyen no solo en las decisiones judiciales, sino también en las aprobaciones de préstamos, las evaluaciones de los docentes e incluso si los cargos por abuso infantil pueden ser investigados por el estado. Pero saber que no son mejores que cualquiera en predecir el comportamiento de un delincuente hace que quizás deba cuestionarse su fiabilidad.

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación