
En el mundo jurídico -y especialmente en el ejercicio profesional de la abogacía- hay una discusión que, más que técnica, parece cultural: si se debe o no admitir el uso de inteligencia artificial (IA) en la elaboración de escritos, dictámenes o incluso decisiones judiciales.
Algunos sectores proponen regularla. Otros, directamente, limitarla o prohibirla. Y muchos, en la práctica, la utilizan en silencio.
El problema es que el debate, tal como está planteado, parte de una premisa equivocada: supone que la intervención de la inteligencia artificial sería algo excepcional dentro del proceso jurídico, cuando en realidad lo excepcional sería que alguien produzca un escrito o una decisión completamente en soledad.
En la práctica, eso nunca existió.
En estudios jurídicos -grandes, medianos o incluso pequeños- los escritos rara vez son obra de una sola persona. Hay equipos, borradores, revisiones, aportes cruzados. Finalmente firma un abogado, que asume la responsabilidad profesional.
En el Poder Judicial ocurre algo similar. Jueces y fiscales firman resoluciones que muchas veces han sido trabajadas por relatores, secretarios o equipos técnicos. Nadie discute eso. Nadie exige que se detalle quién redactó cada párrafo.

La firma es lo que ordena la responsabilidad jurídica.
Entonces aparece la pregunta incómoda: ¿por qué cuando interviene una herramienta de inteligencia artificial el sistema reacciona distinto? ¿Por qué se plantea la necesidad de advertirlo, declararlo o incluso restringirlo?
La respuesta no es estrictamente jurídica. Es, en gran medida, cultural.
Porque la inteligencia artificial expone algo que el sistema siempre prefirió mantener en una zona difusa: que la producción jurídica es, en esencia, un trabajo colectivo, asistido y construido por capas.
La idea del “autor individual” en el derecho -ese profesional que produce en soledad cada línea que firma- es, en gran medida, una ficción funcional.
Una ficción que ordena responsabilidades, pero que nunca describió del todo la realidad.

La diferencia es que ahora esa asistencia puede provenir de una herramienta tecnológica, más rápida, más eficiente y, en muchos casos, más incómoda.
Incomoda porque obliga a redefinir el rol.
El abogado, el fiscal o el juez dejan de ser vistos únicamente como quienes “producen” el contenido, para pasar a ser quienes lo validan, lo controlan y, sobre todo, lo asumen.
Y ese cambio de paradigma no es menor. Porque el punto central no es si se utilizó o no inteligencia artificial. El punto es quién responde por el contenido y bajo qué estándares de control profesional.
La discusión en el país
Este debate ya no es ajeno a nuestro sistema: en Argentina también comienza a discutirse -cada vez con mayor intensidad- el impacto del uso de inteligencia artificial en aspectos sensibles como el secreto profesional, la trazabilidad de la información y la validez de los escritos judiciales.
Esto no es un problema teórico: mal utilizada, la herramienta puede generar riesgos probatorios, comprometer evidencia, provocar filtraciones de información o incluso afectar la estrategia de defensa.
Y en ese punto aparece un aspecto que muchas veces se subestima: el riesgo no es tecnológico, es jurídico. Quien firma un escrito -sea elaborado por un equipo, por un relator o con asistencia tecnológica- es quien asume la responsabilidad jurídica, ética y profesional.
Plantear la prohibición o limitación de la inteligencia artificial en nombre de una supuesta “pureza” del proceso no solo desconoce cómo funciona realmente el sistema desde hace décadas, sino que además introduce una discusión que, en muchos casos, se apoya más en la apariencia que en la sustancia. Ahí es donde el debate empieza a volverse más incómodo.
Porque exigir transparencia sobre el uso de inteligencia artificial, sin aplicar el mismo estándar a las múltiples intervenciones humanas históricamente invisibilizadas, revela una tensión que no es tecnológica, sino discursiva.
Lo que incomoda no es la herramienta. Es lo que deja en evidencia.
Pero también sería un error ir al extremo contrario: usar estas herramientas sin control. La diferencia, hoy más que nunca, no la hace quien escribe. La hace quien dirige, quien revisa y quien entiende el impacto de lo que firma.
En la práctica, esto redefine el modo en que se construye la estrategia jurídica: ya no alcanza con producir contenido correcto, sino que es necesario comprender cómo se genera, qué sesgos puede introducir y cómo impacta en el caso concreto.

La conducción del proceso -y no la mera redacción- pasa a ser el verdadero diferencial profesional. En ese escenario, la inteligencia artificial no reemplaza la capacidad técnica ni la estrategia jurídica. La potencia.
Del mismo modo en que en su momento la incorporación del ADN o de la identificación por huellas dactilares transformó la criminalística sin reemplazar al investigador, la inteligencia artificial se integra como una herramienta que acelera procesos, ordena información y amplía capacidades.
Nadie discute hoy el uso de esas herramientas. Simplemente se las utiliza. Porque el valor nunca estuvo en el instrumento, sino en quién lo interpreta, lo dirige y lo convierte en una estrategia.
Por eso, el debate serio no debería ser si se usa o no se usa. Eso ya está saldado en la práctica.
La discusión real pasa por otro lado: cómo se usa, bajo qué estándares, con qué controles y con qué nivel de intervención humana.
En el derecho, la diferencia nunca estuvo en la herramienta, sino en la responsabilidad profesional y en la estrategia de quien la utiliza.
En un sistema donde la producción siempre fue colectiva, pero la responsabilidad siempre fue individual, la inteligencia artificial no cambia las reglas. Lo que cambia es quién entiende lo que está firmando… y quién no.
Y eso, en derecho, nunca es un detalle menor.
*El autor es abogado, doctor en Ciencias Jurídicas y Sociales. Posgrado en Derecho Procesal Penal profundizado
Últimas Noticias
Menos concesiones, más ilegalidad
Desde la exploración hasta la producción, pasando por ampliaciones y reposiciones, los proyectos requieren décadas para madurar

Más que una buena pesca, una política pública que sí funciona
La OCDE no sólo muestra que el Perú tenga una buena política pesquera, sino también que, en ese sector, el Estado peruano ha logrado construir un sistema que funciona

Modernización laboral: una nueva oportunidad que no podemos desperdiciar
Un nuevo esquema legal busca dotar de mayor previsibilidad a las relaciones de trabajo y reducir los conflictos judiciales, en un contexto donde las pequeñas y medianas empresas enfrentan desafíos para incorporar personal registrado
De la confianza de corto plazo a la credibilidad intertemporal: claves para la expansión del mercado de capitales y la inversión
La economía, a pesar de las reformas legales recientes y la actualización normativa, mantiene una baja capacidad para captar flujos sólidos hacia la oferta pública en comparación con otros países de la región
Tanto agente en mente, ¿y la mente de la gente?
¿Qué sucede si invertimos en agentes cuando en casa apenas se usa la IA generativa?




