Inteligencia artificial en los tribunales: ¿cómo funciona?
22 de enero de 2019Eric L., escapó de la Policía en un auto robado, en el estado de Wisconsin, EE. UU. Su sentencia: seis años de prisión. Para decidir cuánto tiempo tenía que ir a la cárcel, el juez recurrió a un software. Este determinó que el acusado tenía un alto riesgo de reincidencia. Eric L. apeló. Su argumento: el veredicto fue determinado por un algoritmo al que no se podía tener acceso, por lo tanto, el veredicto no era justo. La Corte Suprema de Wisconsin falló en contra de él. Sin embargo, el caso desencadenó una gran controversia.
La máquina heredera los errores humanos
El software Compas es producido por una empresa privada. Las cortes de por lo menos diez estados de Estados Unidos utilizan este programa. El cálculo del riesgo se basa, entre otras cosas, en un cuestionario y en los antecedentes penales. Algunos expertos alegan que el algoritmo calcula un mayor riesgo de reincidencia si el acusado es negro. No obstante, otros estudios han cuestionado esta alegación.
"Esta suposición proviene del hecho de que los datos en los que se basa el cálculo de riesgo están sesgados", dice Sofía Olhede, profesora de estadística de la University College London, quien trabaja actualmente junto con una comisión para determinar cómo se utiliza hoy en día la inteligencia artificial en el sistema judicial británico, y cómo se puede mejorar su uso para el futuro.
Acceder al sistema de justicia
El hecho de que los algoritmos recurran a los antecedentes penales puede ser beneficioso para algunos, dice, por su parte, Nikolaos Aletras. Junto con sus colegas, desarrolló un software que, en cuatro de cinco juicios, emitió el mismo veredicto que los jueces del Tribunal Europeo de Derechos Humanos. Para desarrollar el sistema se compararon los documentos con críticas cinematográficas.
"A partir de las palabras más comunes usadas en las críticas de cine se estableció un vocabulario, con el cual se 'entrenó' al algoritmo. De este modo, puede reconocer si una crítica es positiva o negativa", dice Aletras. El software puede distinguir entre palabras como “bueno, excelente”, para clasificaciones positivas, y “malo, horrible”, como negativas. Aletras definió el vocabulario que evalúa las condiciones de una detención. Este mismo principio, en un futuro próximo, podría facilitar un acceso más fácil a la Justicia para muchas personas.
Según Aletras, los altos honorarios legales a menudo impiden que las personas entablen una demanda civil. El software puede ayudar a los bufetes de abogados, basándose en casos anteriores, a predecir si una demanda será exitosa. Estos programas ya son utilizados por ellos para preparar los casos.
En Alemania, la inteligencia artificial se utiliza en el derecho administrativo. Ya hay procesos totalmente automatizados, señala Martin Ebers, especialista en jurisprudencia en la Universidad Humboldt en Berlín. Por ejemplo, la Oficina de Impuestos ya emite evaluaciones fiscales sin participación humana.
Se necesitan reglas claras
A través del portal de Internet "Geblitzt.de" se puede evaluar si la objeción a una multa sería exitosa o no. Gracias al software, los abogados podrían trabajar en más de 2.000 casos por año, en lugar de 250. Debido al creciente número de casos, la presión sobre los tribunales para que recurran a los sistemas informáticos está en aumento.
Pero los tres expertos están de acuerdo en que se necesitan reglas claras para determinar hasta qué punto se puede recurrir a la inteligencia artificial para llegar a un veredicto. En Reino Unido, Sofía Olhede y sus colegas están trabajando en la elaboración de un reglamento. En Alemania, la Ley estipula que toda persona tiene derecho a ser escuchada por un juez humano, explica Martin Ebers. Esto hace imposible que los juicios sean totalmente automatizados.
El Consejo Europeo publicó recientemente otros principios éticos para el uso de la inteligencia artificial en el Poder Judicial. Entre otras cosas, los algoritmos solo deben utilizarse si se puede verificar cómo se llegó al veredicto, y si no fomentan la discriminación, lo cual no sucedió en el caso de Eric L..
(bt/cp)