¿Pueden los algoritmos mejorar el sistema de justicia penal?
REDACCIÓN NOTI AMÉRICA (ECUADOR) por Patricio Domínguez.
Aquella antigua idea de que la justicia es ciega, opera con bastante dificultad en la práctica. Diversas investigaciones muestran que en Estados Unidos, individuos pertenecientes a minorías son tratados desfavorablemente en diferentes etapas del sistema judicial donde, por ejemplo, los jueces exigen a acusados afroamericanos condiciones de fianza más severas que a los blancos.
No sería extraño encontrar discriminaciones similares en algunos países de América Latina. Aunque aún no contamos con una sistemática revisión en la región, no es difícil creer que los bajos niveles de confianza en el sistema judicial tengan relación con un trato menos justo hacia algunos grupos de la población. Esto, además, puede estar relacionado con uno de los fenómenos de justicia más preocupantes de la región: el gran número de personas que se encuentran en detención preventiva. Las cárceles están repletas de personas en espera de juicio, muchas de ellas pobres. El 36% de la población carcelaria en la región no ha recibido condena, cifra que supera el 50% en varios países, entre ellos Bolivia, Guatemala, Uruguay y Venezuela.
Disparidades en el sistema de justicia penal
Una pregunta importante consiste en saber si sería posible eliminar discriminaciones injustas en el sistema judicial y garantizar que los jueces impartan justicia de manera consistente para evitar algunos de estos problemas. Existe un encendido debate sobre si mediante la inteligencia artificial y el uso de algoritmos se podría lograr esto.
Probar la existencia de un sesgo contra un determinado grupo no es sencillo. Sin embargo, investigaciones recientes han demostrado de forma creíble que las minorías en Estados Unidos reciben un trato injusto en ámbitos diversos como las multas por exceso de velocidad, o el hecho que frente a similar circunstancias, algunos grupos presentan una probabilidad mayor de encarcelamiento. Sorprendentemente, existe incluso evidencia de sesgo político en la imposición de penas.
Por otro lado, existen importantes problemas de consistencia que afectan la confiabilidad en el sistema judicial. Al igual que otros seres humanos, los jueces pueden verse influenciados por factores ambientales, como la “fatiga por decisión,” que los hace más estrictos a la hora de conceder libertad condicional, si no han tenido la oportunidad de tomarse un descanso para comer. O el estrés emocional cuando, por ejemplo, dictan sentencias más largas después de que su equipo de fútbol favorito pierde un partido contra todo pronóstico.
¿Funcionan los algoritmos como una solución contra la discriminación?
En este contexto, algo tan aparentemente objetivo como la inteligencia artificial parece resultar muy prometedor. Después de todo, la mayoría de las personas han sido testigos del poder de los algoritmos para reconocer imágenes y procesar enormes cantidades de datos en décimas de segundos. Además, uno podría pensar que los algoritmos ofrecen un procedimiento transparente que puede estar sujeto a un escrutinio continuo, al menos por parte de un grupo de expertos. La pregunta entonces es si es posible aprovechar esta tecnología para mejorar la imparcialidad del sistema judicial.
Una limitación fundamental de los algoritmos es su capacidad de simplemente reproducir los prejuicios sociales observados en los datos. Como señalan Solon Baracas y Andrew Selbst en un reciente documento, un “algoritmo solo es tan bueno como los datos con los que trabaja”. Es decir, los datos pueden hacer que los algoritmos “hereden los prejuicios de los anteriores entes decisorios” o “simplemente reflejen los prejuicios generalizados que persisten en la sociedad en general”.
En parte, estas limitaciones provienen de las dificultades técnicas que son intrínsecas al uso de algoritmos en las ciencias sociales. Una de ellas tiene que ver con el tamaño de las muestras. Ello hace que, por ejemplo, grupos mayoritarios de la población sean representados con mayor precisión en los algoritmos debido a existen más datos sobre ellos que sobre otros grupos minoritarios. Asimismo, las diferencias culturales desempeñan un papel importante en la calidad de ajuste de los modelos ya que los patrones que son válidos para la población en general pueden no serlo para las minorías. Asimismo, la eliminación de estas diferencias resulta complicada porque rotular específicamente a los individuos de las minorías con el fin de mejorar el algoritmo puede ser objetable en sí mismo.
Un interesante estudio en Nueva York
A pesar de estas intrínsecas limitaciones, un reciente estudio ofrece una perspectiva interesante sobre cómo combinar el uso de algoritmos y big data con las decisiones de los jueces. Dicho estudio compara cómo hubiesen funcionado los algoritmos en el sistema judicial de la ciudad de Nueva York frente a las decisiones que realmente tomaron los jueces al determinar qué sospechosos debían ser liberados y cuáles debían ser encarcelados antes del juicio.
El estudio incluyó un diseño ingenioso. Ante la imposibilidad de observar la cantidad delitos que podrían haber cometido quienes fueron encarcelados, pero que pudieron haber sido puestos en libertad, los autores construyen un escenario contrafactual en el que comparan a sospechosos con perfiles muy similares que se enfrentaron a jueces levemente menos estrictos y que ante igualdad de antecedentes decidían dejarlos en libertad durante la espera del juicio. Al observar el registro posterior a la puesta en libertad de quienes fueron liberados por jueces indulgentes, los investigadores estiman cómo habría sido el comportamiento del grupo de personas que fueron encarcelados por jueces estrictos, en el caso que hubiesen sido puestos en libertad. De esta manera, comparan las decisiones de los jueces (otorgar detención preventiva o no) con aquellas generadas por un algoritmo de inteligencia artificial en poblaciones similares.
El estudio, en lugar de afirmar que es posible eliminar el sesgo, muestra que los algoritmos pueden ofrecer una valiosa contribución. De hecho, sus resultados sugieren que, de haber sustituido las decisiones de los jueces por el dictamen de un algoritmo, la cantidad total de delitos se habría reducido en un 24,7% sin cambios en los índices de encarcelamiento, o su contraparte, que los índices de encarcelamiento podrían haberse reducido en un 41,9% sin un aumento en los índices de delincuencia. Además, esos resultados podrían haberse logrado aun cuando los algoritmos redujeron las disparidades que afectan negativamente a los afroamericanos y a los latinos.
Los jueces enfrentan decisiones difíciles cuando toman decisiones sobre la libertad de las personas. Por un lado, si liberan a los sospechosos corren el riesgo de que estos cometan más delitos, huyan o amenacen a los testigos. Por otro lado, si los retienen pueden poner en riesgo los empleos de los sospechosos, crear traumas financieros y psicológicos para ellos y sus familias, e incluso aumentar la posibilidad de que sean condenados, especialmente a través de declaraciones de culpabilidad.
América Latina probablemente no tiene suficientes datos complejos o no cuenta con muestras lo suficientemente grandes como para empezar a utilizar la inteligencia artificial en las decisiones de los tribunales de manera inmediata. Pero puede empezar a recopilar datos de mayor calidad a nivel de casos individuales, desarrollar modelos para la inteligencia artificial y probar su desempeño en relación con los jueces en simulaciones similares a las realizadas en el estudio de Nueva York.
Un caso interesante se está llevando a cabo en Colombia, donde ya se han replicado varios de los resultados observados en Nueva York. Las estimaciones se están utilizando ahora para orientar a los fiscales a promover un uso más eficiente de las prisiones, deteniendo antes de los juicios solo a quienes representan un mayor riesgo para la sociedad. Si bien aún quedan muchas preguntas abiertas, debemos estar atentos a cómo éstas u otras herramientas nos permitan revertir la costosa y contraproducente práctica de retener a un gran número de personas en detención preventiva.
Fuente. BID.