La gran duda de muchos en relación a la Inteligencia Artificial es saber hasta qué punto reemplazarán las tareas de los seres humanos. Hasta que no tengamos esa respuesta, la IA mientras se comporta como una herramienta poderosa que complementa nuestras propias funciones.

En el caso de China, la Inteligencia Artificial está siendo utilizada en algunos tribunales de justicia para facilitar la tarea, por ejemplo, de jueces y abogados. Aunque esto pone en duda la imparcialidad de los resultados y la confiabilidad de las fuentes.

Una de las novedades es el llamado Xiao Zhi 3.0 un asistente de juez que "graba los testimonios con reconocimiento de voz, analiza materiales del caso y verifica la información en bases de datos en tiempo real", en un tribunal de Hangzhou, según indica Deutsche Welle

En la ciudad e Suzhou, también el país asiático, un tribunal aplicó un sistema parecido en litigios sobre accidentes de tráfico y pudo ahorrar en un 80% el tiempo del juez, puesto que esta IA "examinó las pruebas y redactó los veredictos". 

Se trata del sistema inteligende de predicción de sentencias Xiao Baogong, que de acuerdo a DW, es usado de igual manera por jueces y fiscales en Derecho Penal. Esta Inteligencia Artificial sugiere penas basándose en el análisis de big data de la información del caso y en sentencias anteriores de situaciones similares. 

Sin embargo, hay un problema en este sistema de IA, según indican los expertos, ya que la información pública con la que trabajan las máquinas no es la misma en las distintas regiones de país asiático por temas de desigualdad en la digitalización de los datos. "Uno de los retos de la justicia penal china es garantizar la uniformidad. Quieren asegurarse de que en las distintas regiones de China las penas sean coherentes entre sí", comentó a DW el Dr. Shitong Qiao, profesor de Derecho en la Facultad de Derecho de Duke.

Aunque la Inteligencia Artificial se vuelva un compañero en los tribunales, hay países que tienen prohibida la participación de ella en las resoluciones. "Francia, por ejemplo, prohibió cualquier desarrollo de litigios predictivos basados en IA en 2019, argumentando, entre otras cosas, el riesgo de la comercialización de datos", expone el medio.

 

 

Publicidad