
Un camino sinuoso. Los tribunales de justicia ya han comenzado a usar herramientas de inteligencia artificial (IA) en el proceso de elaboración de algunas partes de sus resoluciones. A partir de esa situación, podemos identificar cuestiones que pueden comprometer la calidad de la obra de la Administración de Justicia.
Problemas de afuera. A veces, los problemas de los tribunales, originados en la Inteligencia Artificial, los traen los litigantes. Hace unos días, en Nueva York, en una audiencia remota, se presentó un abogado representando a la accionada. Solo una de las juezas notó algo extraño en el articulado del letrado: era un avatar diseñado por la empresa demandada. Otro caso: un abogado de Colorado se enfrentó a una suspensión de un año, después de citar jurisprudencia generada por IA en una moción presentada ante un tribunal. Y los casos se multiplican.
No debemos desesperar. Existen los mecanismos para la detección de estos sucesos.
Problemas en casa. En otras ocasiones, los problemas surgen desde el interior del tribunal, que usa Inteligencia Artificial para identificar jurisprudencia, leer y reseñar documentos o investigar en la doctrina. Todas esas actividades se han simplificado enormemente con las herramientas de Inteligencia Artificial y el tiempo para llegar a la sentencia podría acortarse muchísimo. Pero es indispensable tener mucho cuidado.
Veo un oasis. Es muy probable que el juez y su equipo tengan visiones: las alucinaciones son distorsiones que pueden presentar las herramientas de Inteligencia Artificial. Se dan cuando un modelo de lenguaje grande (LLM), a menudo un chatbot de IA generativo o una herramienta de visión por computadora, percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son inexactos. Incluso herramientas de IA legal, a medida, alucinan con una frecuencia alarmante: los sistemas Lexis+ AI y Ask Practical Law AI generaron información incorrecta en más del 17% de los casos.
Claro es que nuestros tribunales omiten usar esas plataformas legales. Pero, a diferencia de las herramientas tradicionales de investigación jurídica, los modelos de IA generativa, como Chat GPT y Google Bard, que sí se están usando, no recuperan precedentes legales verificados. En cambio, predicen respuestas basándose en patrones estadísticos de amplios conjuntos de datos. Esto significa que, al solicitar citas de apoyo, la IA puede inventar jurisprudencia que parece real, pero que es completamente falsa. Es imprescindible chequear esas respuestas. Al margen de que los jueces no pueden delegar la decisión de los casos a una máquina, no es aceptable expresar como verdadero lo que es una construcción artificiosa y podría aportar a una cultura judicial sin base cierta.

Solo quiero que seas feliz. Hay un punto que el tribunal no debería omitir: las herramientas están diseñadas para complacer al usuario, con el que a veces establecen un vínculo de costumbre y predictibilidad.
¡Eureka! Si las herramientas están diseñadas para complacer al usuario y hacer que el camino sea más fácil y recorrerlo en el menor tiempo posible, también se corre el riesgo de que, con tal de cumplir con ese objetivo, la IA arme respuestas basadas en información obsoleta, irrelevante o precedentes revocados, por ejemplo, que darían como resultado un invento con aceptable aspecto superficial.
¿Puedo vivir sin jueces? Las decisiones judiciales deberían ser tomadas «únicamente con arreglo a la ley y la conciencia». No es así, están inevitablemente imbuidas por sesgos personales de los jueces. Influyen su personalidad, historia, ideología, hábitos, valores y estados de ánimo. Son sus “sesgos inconscientes” y, una vez que estas distorsiones se arraigan en la práctica judicial, permean todo el proceso de decisión. Debemos ponderar hasta dónde IA es un aporte y cuándo puede producirnos daño.
No puedo vivir sin jueces. Sin embargo, en el sistema judicial, los patrones “profundos” extraídos de sentencias pasadas, pueden ser perjudiciales. En lugar de mejorar la justicia, corren el riesgo de institucionalizar la discriminación que contenga una sentencia no demasiado fundada. Cuando los sistemas de IA se entrenan con sentencias judiciales pasadas, a menudo reproducen, no la imparcialidad, sino los mismos sesgos arraigados en los precedentes. Es decir, tendríamos un “juez digital” que basa sus decisiones en sentencias injustas (o, como vimos antes, desactualizadas o hasta inexistentes). En lugar de identificar y corregir errores, el algoritmo de la herramienta simplemente los codifica y refuerza. De nuevo, la tarea esencial de la decisión judicial es personal e indelegable.
Buenas prácticas. No todos los riesgos del uso de la IA fueron expuestos aquí. Es una introducción al tema, para generar debate. Tampoco la regulación del uso de la IA en los tribunales que ya empieza a trazarse, tanto en el país como en el exterior. Nos parece que mientras damos tiempo al perfeccionamiento de las herramientas, un camino recomendable para los tribunales es introducir políticas internas de uso de IA en la justicia, ofrecer talleres y capacitación sobre riesgos comunes y fortalecer la diligencia debida sobre los proveedores de IA antes de introducirlos. Y partir de la base de que la IA puede ser una herramienta de apoyo para la toma de decisiones, solo una más, y no puede —NO DEBE— sustituir al juez humano.
Últimas Noticias
Phishing: el delito que crece en silencio y que el Estado sigue mirando de costado
En 2024, la Unidad Fiscal Especializada en Ciberdelincuencia reportó más de 34.000 denuncias de delitos informáticos en el país

La larga sombra del terrorismo iraní y un posible cierre
Desde una escena de atentado al escenario global
Balance de 5 años de aborto legal en Argentina
Crisis humanitaria, descalabro sanitario y urgencia demográfica

El mito del Estado presente: una verdadera estafa política
El incremento sostenido del gasto estatal, que pasó del 25,4% al 45% del Producto Interno Bruto en veinte años, ha coincidido con un aumento persistente de los niveles de pobreza y la destrucción del mercado laboral formal

Activismo accionarial en pausa: lo que la decisión de la SEC implica para mercados emergentes
Una modificación reciente impide que accionistas con menos de 5 millones de dólares en acciones publiquen documentos informativos en la principal plataforma pública, lo que limita la visibilidad de perspectivas minoritarias en votaciones de empresas





