Con inteligencia artificial en la Justicia, quien escribe dejó de ser la pregunta correcta

El uso de la IA en el ámbito judicial ya no es una hipótesis: es una práctica instalada. La respuesta a un dilema cultural

Guardar
Manos sostienen una balanza con un cerebro luminoso y un mazo sobre libros. Fondo: robot humanoide, mapa de América y monumentos globales con circuitos
La inteligencia artificial expone que la producción jurídica es, en esencia, un trabajo colectivo, asistido y construido por capas (Imagen Ilustrativa Infobae)

En el mundo jurídico -y especialmente en el ejercicio profesional de la abogacía- hay una discusión que, más que técnica, parece cultural: si se debe o no admitir el uso de inteligencia artificial (IA) en la elaboración de escritos, dictámenes o incluso decisiones judiciales.

Algunos sectores proponen regularla. Otros, directamente, limitarla o prohibirla. Y muchos, en la práctica, la utilizan en silencio.

El problema es que el debate, tal como está planteado, parte de una premisa equivocada: supone que la intervención de la inteligencia artificial sería algo excepcional dentro del proceso jurídico, cuando en realidad lo excepcional sería que alguien produzca un escrito o una decisión completamente en soledad.

En la práctica, eso nunca existió.

En estudios jurídicos -grandes, medianos o incluso pequeños- los escritos rara vez son obra de una sola persona. Hay equipos, borradores, revisiones, aportes cruzados. Finalmente firma un abogado, que asume la responsabilidad profesional.

En el Poder Judicial ocurre algo similar. Jueces y fiscales firman resoluciones que muchas veces han sido trabajadas por relatores, secretarios o equipos técnicos. Nadie discute eso. Nadie exige que se detalle quién redactó cada párrafo.

Un juez con toga negra y cabello gris se sienta a un escritorio oscuro y desordenado, con las manos en la cabeza, rodeado de altas pilas de documentos, libros y una lámpara dorada
Hoy, lo excepcional sería que alguien produzca un escrito o una decisión judicial completamente en soledad (Imagen Ilustrativa Infobae)

La firma es lo que ordena la responsabilidad jurídica.

Entonces aparece la pregunta incómoda: ¿por qué cuando interviene una herramienta de inteligencia artificial el sistema reacciona distinto? ¿Por qué se plantea la necesidad de advertirlo, declararlo o incluso restringirlo?

La respuesta no es estrictamente jurídica. Es, en gran medida, cultural.

Porque la inteligencia artificial expone algo que el sistema siempre prefirió mantener en una zona difusa: que la producción jurídica es, en esencia, un trabajo colectivo, asistido y construido por capas.

La idea del “autor individual” en el derecho -ese profesional que produce en soledad cada línea que firma- es, en gran medida, una ficción funcional.

Una ficción que ordena responsabilidades, pero que nunca describió del todo la realidad.

Balanza de la justicia dorada con una pila de libros antiguos en el plato izquierdo y un símbolo de inteligencia artificial (circuitos con letras AI) en el derecho, sobre fondo neutro.
"Lo que incomoda no es la herramienta, la IA. Es lo que deja en evidencia", sostuvo el autor (Imagen Ilustrativa Infobae)

La diferencia es que ahora esa asistencia puede provenir de una herramienta tecnológica, más rápida, más eficiente y, en muchos casos, más incómoda.

Incomoda porque obliga a redefinir el rol.

El abogado, el fiscal o el juez dejan de ser vistos únicamente como quienes “producen” el contenido, para pasar a ser quienes lo validan, lo controlan y, sobre todo, lo asumen.

Y ese cambio de paradigma no es menor. Porque el punto central no es si se utilizó o no inteligencia artificial. El punto es quién responde por el contenido y bajo qué estándares de control profesional.

La discusión en el país

Este debate ya no es ajeno a nuestro sistema: en Argentina también comienza a discutirse -cada vez con mayor intensidad- el impacto del uso de inteligencia artificial en aspectos sensibles como el secreto profesional, la trazabilidad de la información y la validez de los escritos judiciales.

Esto no es un problema teórico: mal utilizada, la herramienta puede generar riesgos probatorios, comprometer evidencia, provocar filtraciones de información o incluso afectar la estrategia de defensa.

Y en ese punto aparece un aspecto que muchas veces se subestima: el riesgo no es tecnológico, es jurídico. Quien firma un escrito -sea elaborado por un equipo, por un relator o con asistencia tecnológica- es quien asume la responsabilidad jurídica, ética y profesional.

Plantear la prohibición o limitación de la inteligencia artificial en nombre de una supuesta “pureza” del proceso no solo desconoce cómo funciona realmente el sistema desde hace décadas, sino que además introduce una discusión que, en muchos casos, se apoya más en la apariencia que en la sustancia. Ahí es donde el debate empieza a volverse más incómodo.

Porque exigir transparencia sobre el uso de inteligencia artificial, sin aplicar el mismo estándar a las múltiples intervenciones humanas históricamente invisibilizadas, revela una tensión que no es tecnológica, sino discursiva.

Lo que incomoda no es la herramienta. Es lo que deja en evidencia.

Pero también sería un error ir al extremo contrario: usar estas herramientas sin control. La diferencia, hoy más que nunca, no la hace quien escribe. La hace quien dirige, quien revisa y quien entiende el impacto de lo que firma.

En la práctica, esto redefine el modo en que se construye la estrategia jurídica: ya no alcanza con producir contenido correcto, sino que es necesario comprender cómo se genera, qué sesgos puede introducir y cómo impacta en el caso concreto.

Un juez de tez morena en toga se sienta en un tribunal federal de EE. UU., flanqueado por las banderas de EE. UU. y California, con interfaces de IA
"La discusión real pasa por otro lado: cómo se usa, bajo qué estándares, con qué controles y con qué nivel de intervención humana", expresó Monastersky (Imagen Ilustrativa Infobae)

La conducción del proceso -y no la mera redacción- pasa a ser el verdadero diferencial profesional. En ese escenario, la inteligencia artificial no reemplaza la capacidad técnica ni la estrategia jurídica. La potencia.

Del mismo modo en que en su momento la incorporación del ADN o de la identificación por huellas dactilares transformó la criminalística sin reemplazar al investigador, la inteligencia artificial se integra como una herramienta que acelera procesos, ordena información y amplía capacidades.

Nadie discute hoy el uso de esas herramientas. Simplemente se las utiliza. Porque el valor nunca estuvo en el instrumento, sino en quién lo interpreta, lo dirige y lo convierte en una estrategia.

Por eso, el debate serio no debería ser si se usa o no se usa. Eso ya está saldado en la práctica.

La discusión real pasa por otro lado: cómo se usa, bajo qué estándares, con qué controles y con qué nivel de intervención humana.

En el derecho, la diferencia nunca estuvo en la herramienta, sino en la responsabilidad profesional y en la estrategia de quien la utiliza.

En un sistema donde la producción siempre fue colectiva, pero la responsabilidad siempre fue individual, la inteligencia artificial no cambia las reglas. Lo que cambia es quién entiende lo que está firmando… y quién no.

Y eso, en derecho, nunca es un detalle menor.

*El autor es abogado, doctor en Ciencias Jurídicas y Sociales. Posgrado en Derecho Procesal Penal profundizado