¿Es justo para los criminales que sus sentencias y sus opciones de obtener la libertad condicional en EE.UU. sea determinada por un programa informático de análisis de riesgo basado en un complejo algoritmo?

En el documental "Making a murderer" de Netflix queda claro que, por ejemplo, el sistema judicial del estado de Wisconsin tiene sus problemas a la hora de tomar decisiones justas.

Es precisamente otro caso en este estado que atrajo la atención local e internacional sobre cómo funciona el sistema judicial estadounidense.

En febrero de 2013, Eric Loomis fue capturado bajo sospecha de estar involucrado en un tiroteo ocurrido en la pequeña ciudad de La Crosse.

Loomis aceptó que conducía el vehículo donde huyeron las personas que participaron en el intercambio de disparos, pero nada más.

Sin embargo, en la corte fue sentenciado a seis años de prisión.

En la definición, las matemáticas cumplieron un rol preponderante.

Compas

Cuando se estaba tomando la decisión de encerrar a Loomis, la corte notó que él había sido identificado como "un individuo de alto riesgo para la comunidad" por un programa llamado Análisis Compas.

Compas es un acrónimo que en español puede traducirse como Administración de Perfiles de Criminales para Sanciones Alternativas del Sistema de Prisiones de EE.UU. (Correctional Offender Management Profiling for Alternative Sanctions).

Una de las personas familiarizadas con Compas es Julia Angwin de ProPublica, una organización de periodismo de investigación en Estados Unidos.

"Compas es básicamente un cuestionario que se le da a las personas cuando son arrestadas. Y se les pregunta un montón de cosas que terminan concluyendo si esa persona en el futuro podría cometer un crimen", explicó Angwin a la BBC.

Angwin explicó que las preguntas incluyen aspectos como "tu historia criminal, si algún miembro de tu familia ha cometido un crimen o ha sido arrestado, si vives en un barrio peligroso, si tienes amigos que pertenecen a una pandilla, tu historial laboral y académico".

Y agregó: "Y a eso le suman preguntas que podíamos denominar pensamiento criminal, que son algo así como: '¿está de acuerdo o en desacuerdo con esta afirmación: está bien para una persona hambrienta robar comida?'".

Cada respuesta recibe un puntaje que varía de 1 a 10.

Entonces aparece un valor promedio de riesgo que decide si alguien puede salir bajo fianza, debe ser enviado a prisión o recibir otro castigo. Cuando la persona ya está encarcelada, el algoritmo determina si merece el beneficio de la libertad condicional.

Error humano

Compas y otros programas similares se utilizan en todo Estados Unidos.

El principio, señalan los defensores del método, es que al usar el algoritmo que permita cotejar toda la información posible sobre el acusado se puede ayudar al sistema judicial a tomar decisiones menos subjetivas, anulando el racismo o el error humano.

Por ejemplo, el cuestionario no pregunta sobre la raza del acusado, o sea que en teoría la decisión o el resultado no está influenciado por el racismo.

El problema es que el algoritmo -los números- de donde las respuestas obtienen el puntaje es mantenido en secreto.

"No sabemos cómo se otorga el puntaje porque es secreto. Es un secreto comercial que tiene la empresa que diseñó Compas y no lo comparte", dijo Angwin.

Y para Angwin esto es un gran problema para el acusado si quiere intentar rebatir su puntuación.
"¿Cómo la persona va a decir que es un ocho o un siete, cuando no sabe cómo lo calificaron, cómo llegó a obtener ese puntaje?", explicó Angwin.

El caso Loomis

Basado en parte en este análisis es que Loomis decidió cuestionar el uso de Compas en su caso.
Pero el pasado mes de julio, la Corte Suprema de Justicia de Wisconsin determinó que, si Compas es utilizado de forma adecuada, no viola los derechos de los acusados.

Sin embargo, en esa misma sentencia la alta corte también determinó que, en el futuro, el análisis de riesgo deberá tener una aclaración sobre sus limitaciones.

Por ejemplo, deberá aclarar que el algoritmo será mantenido en secreto y que el puntaje de riesgo está basado en cómo las personas en ciertos ambientes tienden a comportarse en general y no en una persona en particular.

La Corte Suprema de Wisconsin también advirtió que Compas podría darle a las minorías étnicas puntajes de riesgo desproporcionado: una seria debilidad en el sistema teniendo en cuenta las actuales tensiones que se vive con la policía por cuestiones vinculadas a la supuesta discriminación y el desigual trato basado en aspectos raciales.

La corte expresó esta preocupación basándose en la investigación de Angwin y sus colegas de ProPublica, que cuestionaban la exactitud de los puntajes de Compas y su aplicación en la práctica.
Dicha investigación analizó los puntajes de 7.000 personas arrestadas en el estado de Florida durante dos años y la conclusión fue impactante.

"Si comparas a una persona negra y una blanca que tienen el mismo historial, la misma edad, el mismo género, el mismo pasado judicial y el mismo 'futuro criminal' (las posibilidades de cometer un crimen, dos crímenes o ninguno), el acusado negro tiene un 45% más de posibilidades de obtener un puntaje de riesgo que un acusado blanco", explicó Angwin.

Sorpresa

¿Cómo puede un algoritmo ser racialmente parcial si nunca pregunta por la raza?

"El algoritmo pregunta muchas cosas que pueden aproximarse al tema racial".

Por ejemplo, incluye preguntas como: "¿alguien en tu familia ha sido arrestado?", o "¿cuántas veces has sido arrestado?".

"Hay tal exceso de intervención policial en las comunidades de minorías que es mucho más probable que sean ciertas para una minoría cualquiera que para los blancos", anotó.

Los hallazgos deProPublica han generado bastante debate en Estados Unidos en torno al uso de puntajes de riesgo.

Algunos los han cuestionado. Pero la compañía que diseñó Compas publicó un comunicado en el que rechazaba las conclusiones de ProPublica afirmando que los resultados del algoritmo eran racialmente parcializados.

Tres investigadores no relacionados con Compas también escribieron un documento cuestionando los métodos de ProPublica.

El autor del trabajo fue Anthony Flores, un profesor de la Universidad Estatal de California, en Bakersfield. Él afirmó que los algoritmos han probado ser mejores predictores de criminales repitentes que los propios jueces y que ProPublica ha malinterpretado lo que ha mostrado la información.

"No hemos encontrado ninguna parcialización de ningún tipo cuando hemos reanalizado los datos. Me parece que ProPublica aplicó lo que conocemos como 'tortura de datos'", explicó Flores.

La tortura de datos consiste en intentar varios tipos de medición hasta llegar al resultado que se quiere en una investigación.

"No necesariamente estamos en desacuerdo con sus hallazgos, pero sí con sus conclusiones", añadió.

Hay una tendencia

La BBC conversó con un buen número de estadísticos que no están involucrados en el debate y están bastante de acuerdo en que existen otras maneras de mirar estos datos y concluir que las decisiones del algoritmo no son parcializadas.

Pero ambos bandos de la discusión parecen estar de acuerdo en algo: si la gente negra en general tiende más a cometer de nuevo un crimen, entonces para un acusado negro es mucho más factible recibir un alto puntaje de riesgo.

Así que mientras el algoritmo en su esencia puede no ser parcializado, está reflejando de manera más amplia la parcialidad del sistema judicial.

Angwin dijo que esto es algo que merece una reflexión más profunda: "Si estamos hablando de la libertad de las personas, entonces tenemos la obligación de hacerlo bien".

"Pienso que es muy importante recordar que estamos hablando de matemáticas, de procesos que son bastante modificables. Así que podemos hacer un cambio que asegure el resultado que la sociedad necesita y quiere".

Publicidad