La mayoría de los jueces federales de Estados Unidos utiliza inteligencia artificial en su labor

Una encuesta realizada por la Universidad Northwestern reveló que los magistrados recurren la IA, aunque la mitad no ha recibido capacitación institucional mientras persiste la ausencia de políticas uniformes respecto a la aplicación de estas tecnologías en los tribunales

Guardar
Un juez de tez morena en toga se sienta en un tribunal federal de EE. UU., flanqueado por las banderas de EE. UU. y California, con interfaces de IA
El uso de herramientas de IA entre magistrados se concentra principalmente en investigación jurídica y revisión de documentos dentro de los tribunales federales.

Más del 60% de los jueces federales de Estados Unidos emplea al menos una herramienta de inteligencia artificial en sus tareas judiciales, de acuerdo con el primer estudio sobre esta temática realizado a partir de una muestra aleatoria de magistrados, elaborado por la Universidad Northwestern. El relevamiento señala que la adopción de IA en los tribunales crece de manera sostenida, aunque identifica desafíos vinculados a la capacitación y a la regulación normativa.

Tres de cada cinco jueces federales estadounidenses ya usan IA en sus funciones

El equipo de investigación estuvo encabezado por Daniel Linna, director de Iniciativas de Derecho y Tecnología y profesor titular en la Facultad de Derecho Northwestern Pritzker, junto a VS Subrahmanian, profesor Walter P. Murphy de Ciencias de la Computación y director del Laboratorio de Seguridad e Inteligencia Artificial de Northwestern en la Escuela de Ingeniería McCormick. El estudio representa el primer relevamiento aleatorio sobre el uso de IA por parte del Poder Judicial federal desde la irrupción de ChatGPT en 2022, según detalla la propia universidad en su reporte.

De los 502 jueces federales seleccionados mediante muestreo estratificado, incluyendo a 92 jueces de quiebras, 177 magistrados, 182 jueces de distrito y 51 de cortes de apelación, respondieron 112 magistrados entre el 2 y el 19 de diciembre de 2025. La muestra abarcaba únicamente jueces en funciones hasta agosto de 2025, de acuerdo con el listado confeccionado por Ballotpedia, el Anuario del Poder Judicial Federal y el Directorio Biográfico del Centro Judicial Federal.

Entre quienes respondieron, más del 60% aseguró haber utilizado al menos una herramienta de IA en su actividad judicial. En cambio, cerca del 38% manifestó que nunca ha empleado ninguna de ellas en su trabajo. A su vez, solo 22,4 % reportó emplear IA una o más veces por semana.

El relevamiento marca la primera encuesta aleatoria sobre el uso de IA en el Poder Judicial federal desde la llegada de ChatGPT en 2022 (AP Foto/Kiichiro Sato).
El relevamiento marca la primera encuesta aleatoria sobre el uso de IA en el Poder Judicial federal desde la llegada de ChatGPT en 2022 (AP Foto/Kiichiro Sato).

Investigación, revisión de documentos y diferencias en el uso de plataformas

Las herramientas relevadas incluyen modelos de lenguaje general como ChatGPT (OpenAI), Claude (Anthropic), Copilot (Microsoft), Gemini (Google), Grok (X.ai) y Perplexity, junto a sistemas orientados específicamente al derecho: CoCounsel y Westlaw AI-Assisted o Deep Research (Thomson Reuters), Protégé o Lexis+ AI (LexisNexis), Vincent AI (vLex), Harvey y Legora.

La utilización de IA por parte de los jueces se concentra en tareas de investigación jurídica (30%) y revisión de documentos (15,5%). Lo mismo ocurre con los asistentes de cámara y otros miembros de los equipos judiciales: en el 39,8% de los casos para investigaciones y el 16,7% para revisión documental. Además, los jueces demuestran preferencia por los sistemas legalmente enfocados frente a los modelos de propósito general.

Por otro lado, el 38% de los jueces dijo usar IA diariamente o semanalmente fuera del trabajo, pero la mayoría reportó que rara vez (26,9%) o nunca (25,9%) la utiliza en el ámbito personal, lo que marca una correlación entre el uso profesional y el personal, dado que, de acuerdo con Linna, “si un juez utiliza la IA en su vida personal, es más probable que también la utilice en su vida profesional”.

Formación insuficiente y políticas dispares sobre la IA en los tribunales

El estudio muestra que el 45,5% de los jueces no ha recibido formación en IA proveída por la administración de los tribunales y un 15,7% no tiene certeza sobre dicha oferta. Respecto a la regulación del uso de IA, el 25,9% de los jueces permite su utilización, y el 7,4% lo permite y fomenta en su equipo, mientras el 20% las prohíbe formalmente y el 17,6% desaconseja su uso sin prohibición formal; un 24,1% no cuenta con ninguna política al respecto.

La investigación indica que los magistrados se dividieron en partes iguales entre quienes expresan reservas sobre los riesgos vinculados al uso de inteligencia artificial y quienes consideran que puede mejorar el acceso a la justicia y la calidad de las decisiones judiciales. Sobre este punto, Linna subrayó la necesidad de capacitación en estas herramientas: “La IA está aquí; no va a desaparecer. Se necesitan formación, buenas prácticas y políticas claras sobre cómo implementar la tecnología”.

Mazo de juez de madera sobre una mesa de madera pulida, con una bandera de Estados Unidos desenfocada en el fondo de un entorno de tribunal.
Expertos destacan la importancia de capacitación, buenas prácticas y normativas claras para el uso de inteligencia artificial en tribunales.

Riesgos, errores recientes y próximos pasos

De acuerdo con Reuters, varios abogados han recibido sanciones por presentar informes que citaban casos inexistentes generados por inteligencia artificial, mientras que distintos jueces admitieron que sus equipos entregaron órdenes judiciales con errores. La detección de fallos en resoluciones elaboradas con IA por personal de diversos magistrados ha incrementado la cautela respecto a la utilización de estas tecnologías en el ámbito judicial.

El equipo de investigación planea extender el análisis a un mayor número de tribunales y mantener los talleres de capacitación y diálogo con magistrados acerca de la eficacia y las limitaciones de la tecnología aplicada al derecho.

Linna sostuvo que la prioridad es “comprender los retos a los que se enfrentan los jueces y realizar investigaciones que contribuyan a resolver grandes problemas en el mundo. Los jueces y abogados deben estar a la vanguardia para garantizar que la IA contribuya a facilitar el acceso a la ley para todos y a promover el Estado de Derecho”.