Uso de ChatGPT para redactar fallos judiciales en Colombia no es confiable y su uso no es idóneo

Experto señaló que la herramienta tiende a ofrecer respuestas imprecisas, incorrectas y que incluyen información falsa

Guardar
ChatGPT tiende a inventar información
ChatGPT tiende a inventar información y fuentes información -como normas y sentencias judiciales inexistentes-. REUTERS

El reciente caso de un juez laboral del circuito de Cartagena que usó la herramienta ChatGPT para redactar parte de la motivación de una sentencia de tutela en segunda instancia es muy preocupante porque esta inteligencia artificial (IA) no es confiable y porque su uso no fue idóneo.

Así lo afirmó el profesor de la Facultad de Estudios Internacionales, Políticos y Urbanos de la Universidad del Rosario Juan David Gutiérrez, experto en Gobernanza de la Inteligencia Artificial, al señalar que esta no es capaz de ofrecer la mejor respuesta sobre alguna temática consultada.

Puntualizó que ChatGPT tiende a inventar información y fuentes información –como normas y sentencias judiciales inexistentes– cuando se le consulta el soporte a partir del cual responde las preguntas.

Como lo advierte la propia ChatGPT, se trata de un instrumento muy limitado y como lo reconoció el director ejecutivo de ChatGPT, Sam Altman, en diciembre de 2022, “es un error confiar en ella para algo importante en este momento... nos queda mucho trabajo por hacer en cuanto a solidez y veracidad”.

Para el profesor Gutiérrez, es positivo que el Estado colombiano busque incorporar tecnologías emergentes en los procesos, pero es fundamental asegurar que el uso de la IA sea informado, ético, idóneo y responsable dados los riesgos que suponen estas herramientas.

Destacó que lo sucedido con la sentencia del juez de Cartagena que usó ChatGPT es una oportunidad para abrir un diálogo nacional necesario sobre cuáles son los usos adecuados de la IA en asuntos en los cuales está en juego los derechos de las personas, afirmó el profesor.

Además, Gutiérrez invitó a la Rama Judicial a que “diseñe guías metodológicas para la aplicación de la IA en el sistema judicial y fortalezca la formación de los jueces y servidores judiciales en estos temas”.

Inteligencia artificial y sus riesgos

La inteligencia artificial (IA) es usada consciente o inconscientemente por billones de personas todos los días. Empresas y gobiernos de todo el mundo apuestan significativos recursos para desarrollar nuevas herramientas y aplicaciones en diferentes ámbitos.

Sin embargo, advirtió que determinados usos de herramientas de IA pueden generar graves riesgos. A su vez, subrayó que esos riesgos ya se han concretado en diferentes países del mundo, como en Países Bajos y Estados Unidos, donde el uso inadecuado de herramientas con defectos estructurales generó daños y vulneraciones a los derechos fundamentales de personas.

La controversia del alcalde de Medellín por el uso de ChatGPT

Otro personaje que utilizó ChatGPT en estos días es el alcalde de Medellín, Daniel Quintero Calle, y por supuesto generó controversia en redes sociales. Vía Twitter, mostró una captura de pantalla en la que se evidenció dos preguntas que el mandatario antioqueño le hizo hecho a la famosa herramienta sobre la política de hidrocarburos que impulsa el Gobierno de Gustavo Petro en cabeza de la ministra de Minas y Energía, Irene Vélez.

En el tuit Daniel Quintero escribió: “¿Qué opina la inteligencia artificial sobre la nueva política petrolera en Colombia?”, y compartió un pantallazo.

En la captura de pantalla se puede leer la primera pregunta que dice: “¿el petróleo puede ser malo para un país?”, a lo que la IA respondió:

La segunda pregunta que le hizo Quintero en ChatGPT fue “qué opinarías que un gobierno suspenda la exploración petrolera para aportar en la lucha contra el cambio climático”, a lo que la IA respondió:

Pero la IA también advirtió de las consecuencias económicas y sociales: “asegurarse que se implementen medidas adecuadas para compensar a las personas y las comunidades que dependen del petróleo”.