El Poder Judicial multa con 1.000 euros a un juez por usar ChatGPT para redactar el borrador de una sentencia

El CGPJ descarta suspender al magistrado al considerar que utilizó la inteligencia artificial como apoyo y no como sustitución de su función jurisdiccional

Guardar
Un usuario utilizando ChatGPT en su ordenador (Freepik)
Un usuario utilizando ChatGPT en su ordenador (Freepik)

El Consejo General del Poder Judicial ha acordado sancionar con una multa de 1.000 euros a un magistrado de una audiencia provincial por utilizar inteligencia artificial, concretamente ChatGPT, para redactar el borrador de una sentencia. La Comisión Disciplinaria del órgano ha descartado, sin embargo, imponerle una suspensión por falta muy grave, al considerar que el uso de esta tecnología no sustituyó completamente su labor jurisdiccional.

La decisión, adoptada por mayoría y comunicada este lunes, se ampara en el artículo 418.8 de la Ley Orgánica del Poder Judicial, que tipifica como falta grave la revelación de hechos o datos conocidos en el ejercicio de la función judicial fuera de los cauces establecidos. Según el órgano de gobierno de los jueces, el magistrado incurrió en esta conducta al utilizar una herramienta externa para procesar información vinculada a actuaciones judiciales.

El origen del expediente disciplinario se sitúa en la actuación del promotor de la acción disciplinaria, que propuso inicialmente una sanción más severa. En concreto, planteó una suspensión de quince días por una falta muy grave —basada en la “ignorancia inexcusable en el cumplimiento de los deberes judiciales”— junto a una multa adicional de 501 euros por falta grave.

No obstante, la Comisión Disciplinaria ha rechazado finalmente la existencia de esa falta muy grave. En su resolución, considera que el magistrado utilizó la inteligencia artificialcomo auxilio y complemento, pero no en sustitución de sus funciones judiciales”, lo que rebaja la gravedad de la conducta.

El caso salió a la luz después de que, según publicó el diario El Español, el juez incluyera por error en el texto de la resolución las consultas realizadas a ChatGPT. Este detalle permitió identificar el uso de la herramienta en la elaboración del borrador de la sentencia, de la que el magistrado era ponente.

El promotor de la acción disciplinaria puso el foco en que el magistrado presentó al resto de integrantes del tribunal una “aparente sentencia” cuya motivación se basaba en “métodos artificiales”, derivados del análisis informático realizado por la herramienta de inteligencia artificial a partir de los datos judiciales proporcionados por el propio juez.

ChatGPT tendrá un nuevo plan para que usuarios puedan usar más Codex.
Logo de ChatGPT. (OpenAI)

Pese a ello, el propio promotor no cuestionó el uso de la inteligencia artificial en sí mismo, sino el modo en que se empleó, al considerar que el magistrado habría eludido parcialmente el ejercicio directo de su función jurisdiccional.

Por su parte, la Fiscalía se posicionó en contra de cualquier sanción. En su informe, sostuvo que los hechos no constituían infracción disciplinaria y solicitó el archivo del expediente sin imposición de medidas.

Marco normativo

Este episodio se produce en un momento de atención institucional sobre el uso de herramientas de inteligencia artificial en el ámbito judicial. El pasado 28 de enero, el pleno del CGPJ aprobó una instrucción específica sobre esta materia, en la que estableció límites claros al uso de estas tecnologías por parte de jueces y magistrados.

En dicha instrucción, el órgano advirtió expresamente de que la inteligencia artificial no puede dictar sentencias, valorar hechos o pruebas ni aplicar el derecho de manera autónoma. Subrayó, además, que cualquier uso de estas herramientas debe estar sometido a un “constante control humano, real, consciente y efectivo”.

El documento también prohíbe que la inteligencia artificial sustituya a los miembros de la carrera judicial en aspectos esenciales de su labor, como la responsabilidad jurisdiccional, la independencia judicial o el respeto a los derechos fundamentales. Asimismo, incide en la necesidad de garantizar la confidencialidad y la seguridad de la información, así como en la prevención de posibles sesgos algorítmicos.

Pep Martorell, físico y doctor en informática, experto en IA y supercomputación, nos explica cómo están adaptando la inteligencia artificial las empresas españolas y los retos que esta supone para los trabajadores.

En cuanto a las herramientas que pueden emplearse, el CGPJ estableció que los jueces solo podrán utilizar aplicaciones de inteligencia artificial que hayan sido facilitadas por las administraciones competentes en materia de Justicia y que cuenten con el correspondiente control del propio Consejo, o bien aquellas proporcionadas directamente por este órgano.