Inteligencia Artificial en la Justicia: innovación con precaución

La Cámara Federal de Casación Penal inició un ciclo de capacitación dedicado a analizar el impacto y las aplicaciones de la IA en el ámbito judicial. Es una herramienta de suma utilidad pero no se debe perder de vista lo esencial: la máquina no puede sustituir al juicio humano

Guardar
La IA puede ser una
La IA puede ser una aliada poderosa para mejorar la eficiencia del sistema, pero su implementación debe realizarse con cautela y supervisión (Imagen Ilustrativa Infobae)

El avance de la tecnología es cada vez más vertiginoso. La Inteligencia Artificial (en adelante, IA) dejó de ser una promesa del futuro para consolidarse, cada vez más, como una herramienta esencial en nuestra vida cotidiana. Su promesa de agilizar procesos y aumentar la eficiencia también llegó a los tribunales de justicia, donde puede ser una herramienta eficaz para aumentar la celeridad y la eficacia en los procesos judiciales. Sin embargo, este avance plantea importantes desafíos, riesgos y un fuerte componente de responsabilidad ética, que exige un compromiso consciente para garantizar su uso justo y seguro.

Por este motivo, la Cámara Federal de Casación Penal inició un ciclo de tres jornadas de capacitación dedicadas a analizar el impacto y las aplicaciones de la Inteligencia Artificial en el ámbito judicial, con una convocatoria que superó los 400 inscriptos de todo el país.

La iniciativa fue organizada por quien suscribe la presente -doctor Mariano Hernán Borinsky-, presidente del tribunal, y coordinada por Laura Kvitko, secretaria de Cámara. El evento contó con la participación de expositores como el doctor Daniel Petrone, vicepresidente de la Cámara Federal de Casación Penal; del también firmante Juan Manuel Garay, Prosecretario de Cámara; y Hernán Elman, Director del Centro Digital de Documentación Judicial del Consejo de la Magistratura de la Nación, quienes abordaron las oportunidades y desafíos que plantea la IA en el sistema de justicia.

Es sabido que la IA constituye una herramienta de suma utilidad para facilitar tareas administrativas o procesales, como la búsqueda de precedentes jurisprudenciales o el análisis de grandes volúmenes de datos. Sin embargo, no debemos perder de vista lo esencial de la justicia: la máquina no puede sustituir al juicio humano. La deliberación judicial no es un ejercicio mecánico ni algorítmico, ni puede ser suplido por este. La justicia es un proceso profundamente humano que involucra la ponderación de derechos, valores y contextos específicos.

La participación del juicio humano en la toma de decisiones judiciales es imprescindible para garantizar principios esenciales como la imparcialidad, la equidad y la preservación de derechos fundamentales. La justicia no puede reducirse a un cálculo matemático: es un acto profundamente humano de interpretación y empatía.

El uso de ChatGPT para
El uso de ChatGPT para redactar una querella es un ejemplo claro de cómo los algoritmos pueden generar errores contextuales por falta de entendimiento del marco normativo

Los sesgos y las “alucinaciones” en los sistemas de IA son una preocupación vigente. Los sesgos parten de que la IA aprende de datos históricos, y estos pueden reflejar desigualdades o prejuicios sociales. Por su parte, las “alucinaciones” de la IA consisten en respuestas incorrectas o ficticias generadas por modelos como ChatGPT que parecen plausibles pero carecen de sustento real.

Estás limitaciones demuestran que, si bien estas herramientas, como dijimos, pueden ser útiles para agilizar tareas, no comprenden contextos legales específicos ni los pormenores de cada caso en particular. Cuando los abogados o jueces delegan sus tareas exclusivamente en estas tecnologías, existe el riesgo de que las decisiones se basen en información incompleta, errónea o descontextualizada.

En España, el reciente fallo del Tribunal Superior de Justicia de Navarra -del 4/9/24- sobre el uso de ChatGPT para redactar una querella es un ejemplo claro de cómo los algoritmos pueden generar errores contextuales por falta de entendimiento del marco normativo. En este caso, la herramienta incluyó referencias al Código Penal colombiano en lugar del español. Aunque el tribunal optó por no sancionar al abogado, consideró el hecho como un llamado de atención sobre el uso no supervisado de estas herramientas. Este es un claro ejemplo de los graves errores en los que se puede incurrir en la toma de decisiones sustantivas.

Si bien se trata de un caso reciente, no fue el único. El caso Avianca en Estados Unidos, donde un abogado utilizó ChatGPT para redactar un escrito que contenía jurisprudencia inventada, puso en evidencia este peligro. Estos casos, junto a muchos otros, demuestran que la supervisión humana es indispensable.

En efecto, para garantizar que los sesgos no comprometan el sistema de justicia, es fundamental que la IA se use como una herramienta de apoyo y no como un sustituto del juicio humano. Los operadores del derecho deben recibir capacitación adecuada para entender cómo funcionan estas herramientas, sus limitaciones y riesgos. Además, es indispensable establecer controles regulares para auditar los algoritmos y garantizar que operen dentro de los estándares éticos y legales.

La IA puede ser una aliada poderosa para mejorar la eficiencia del sistema, pero su implementación debe realizarse con cautela y supervisión.

Otro desafío es la privacidad. Los tribunales manejan información sensible, y el uso de IA en estos contextos puede exponer a ciudadanos a riesgos de filtración o uso indebido de sus datos. La implementación de estas tecnologías debe ser acompañada por estrictos protocolos de seguridad y un marco normativo robusto que priorice la protección de datos personales.

En definitiva, la incorporación de la IA en los tribunales puede ser una herramienta transformadora, pero no debe ser vista como un sustituto del trabajo humano. Debemos avanzar con prudencia, desarrollando sistemas transparentes y auditables, sometidos al control de expertos y con claros límites éticos y legales.

En este camino, es fundamental recordar que, en última instancia, la justicia no debe ser dictada por máquinas, sino por personas comprometidas con la dignidad y los derechos humanos. Por ello, avanzar en la integración de la IA en los tribunales requiere no solo innovación, sino también una reflexión profunda sobre sus implicancias éticas y sociales.

Mariano Hernán Borinsky es Presidente y juez de la Cámara Federal de Casación Penal, vice Presidente de la Comisión de Reforma del Código Penal, Doctor y Posdoctor en Derecho Penal UBA, Ex Fiscal General ante los Tribunales Orales en lo Penal Económico, Ex Director General UFITCo (actual Procelac), Director del Posgrado en Derecho Penal Tributario de la UBA, Director de la Revista de Derecho Penal y Procesal Penal de Erreius, Profesor universitario de grado ,posgrado y doctorado en UBA, UTDT y Universidad Austral.

Juan Manuel Garay es Prosecretario de Cámara de la Cámara Federal de Casación Penal. Magíster en Derecho Penal -UTDT-. Doctorando UP. Asesor del proyecto de reforma del Código Penal.

Guardar