La IA puede ayudar a jueces a decidir, pero no suplantarlos

Organizado por el Instituto de Investigaciones Jurídicas y la Suprema Corte de Justicia de la Nación, entre otras instituciones

Muchos países ya aplican un amplio abanico de herramientas de inteligencia artificial (IA) para automatizar tareas dentro de la administración de justicia, interpretar hechos e incluso evaluar riesgos de reincidencia criminal, pero todas ellas deben servir para ayudar a los jueces a tomar decisiones, nunca con el fin de suplantarlos.

Así lo advirtieron expertos en derecho e inteligencia artificial de diferentes naciones, al participar en el conversatorio La visión de la Inteligencia Artificial sobre la justicia, organizado por el Instituto de Investigaciones Jurídicas (IIJ) de la UNAM, la Suprema Corte de Justicia de la Nación (SCJN), la Unidad General de Conocimiento Científico y Derechos Humanos, las Casas de la Cultura Jurídica, y el Colegio de Secretarias y Secretarios de Estudio y Cuenta.

El académico de la Universidad de Cantabria, España, José Ignacio Solar Cayón expuso que en ese país como en la Unión Europea se trabajan normas y reglamentos para que la innovación tecnológica y la IA mejoren la eficiencia y fiabilidad de la administración de justicia. Sin embargo, en ellos también se señala que estas herramientas deben ser acompañadas de diversas garantías.

“En la propuesta del reglamento europeo estos sistemas de IA sólo pueden servir para ayudar a los jueces en la toma de decisiones, nunca con el objetivo de suplantarlos. La toma de decisión judicial es una actividad que queda exclusivamente reservada a los humanos, expuso en el encuentro efectuado en el Aula Centenario del IIJ.

La mayoría de las naciones, agregó Solar Cayón, trabajan con la IA en tareas de digitalización de expedientes, automatización de procesos; otras más la utilizan en tareas procesales que no tienen un carácter resolutorio como son la búsqueda, interpretación de hechos y la aplicación del derecho a hechos concretos.

Para estas últimas tareas se usan sistemas de codificación predictiva, basados en aprendizaje automático supervisado, es decir, que requieren entrenamiento de un abogado experto en el litigio y una vez entrenados puedan analizar enormes volúmenes de información electrónica procedente de documentos, fotos, videos, agendas, correos electrónicos, y clasificarlas como relevante o no para un determinado litigio.

En otros países, prosiguió, se usan sistemas algorítmicos de evaluación de riesgos de reincidencia criminal, como COMPAS, pero a los cuales se les ha señalado como faltos de transparencia o bien, de tener sesgos, por lo cual se ha determinado que los tribunales no pueden basarse sólo en ellos, sino que deben tomar en cuenta otras pruebas y razones.

En su oportunidad, el director de la División Académica de Ciencias de la Computación del Instituto Tecnológico Autónomo de México, Carlos Fernando Esponda Darlington, convino en que el sistema COMPAS no es transparente, pues no se sabe bien cómo funciona y con qué tipos de datos se entrenó, pero aun así se utiliza para determinar si se deja en libertad bajo fianza a sujetos o para decidir sus sentencias.

Indicó que este sistema también es prueba fehaciente de que los modelos basados en inteligencia artificial no están libres de errores ni de sesgos, que a pesar de ser realizados por máquinas no son objetivos y pueden reproducir los mismos sesgos de las personas que los entrenan. Por ejemplo, dicho sistema da un riesgo alto de reincidencia a los afroamericanos y bajo a las personas blancas.

En tanto, el coordinador de la línea de investigación institucional en derecho e IA en el IIJ, Pablo Pruneda Gross, relató que en 2017 México fue líder internacional al plantear que la Asamblea General de la Organización de las Naciones Unidas discutiera este tipo de inteligencia, la cual podría tener consecuencias favorables y/o desfavorables para la humanidad.

Ana María Ramos Serrano, magistrada auxiliar de la Corte Constitucional de Colombia, coincidió en que la inteligencia artificial no es magia y tiene errores, por lo que debe tenerse siempre presente que en los modelos que la utilizan hay tasas de acierto y error.

En el conversatorio moderado por Joaquín Giménez Héau, subdirector general de Conocimiento Científico para los Derechos Humanos de la Unidad General de Conocimiento Científico y Derechos Humanos, el académico José Ignacio Solar explicó otros sistemas basados en IA utilizados en sistemas judiciales. Por ejemplo, el denominado Prometea, utilizado en Argentina para resolver asuntos del ámbito contencioso administrativo, pero cuyas propuestas de sentencias son revisadas por la fiscalía antes de emitirlas. También, tribunales digitales como el de la provincia de Columbia Británica, Canadá, que funciona desde 2016 para resolver disputas en materia civil.

Foto: Víctor Hugo Sánchez
También podría gustarte