La inteligencia artificial dejó de ser una promesa futurista. Se convirtió en una herramienta cotidiana. Ejecutivos la utilizan para analizar escenarios regulatorios. Fundadores de startups la consultan antes de estructurar decisiones societarias. Directores financieros simulan riesgos. Profesionales del derecho ensayan hipótesis estratégicas.
Exporta por un valor mayor al que importa, es decir, la inteligencia artificial se ha convertido en una parte clave de las decisiones empresariales y legales.
Lo que antes quedaba en una conversación privada hoy se formula ante un sistema tecnológico.
Y ahí aparece una pregunta incómoda, pero inevitable:
¿Puede lo que le preguntás a una inteligencia artificial terminar siendo utilizado en tu contra en una causa judicial?
No es alarmismo. Es comprender el nuevo escenario jurídico en el que operan las decisiones digitales.
La falsa sensación de privacidad
Las conversaciones que una persona mantiene desde su cuenta forman parte, en principio, de su esfera privada. La intimidad y los datos personales tienen protección constitucional.
Pero la infraestructura digital no funciona como un cuaderno que se rompe y desaparece.
Existen registros técnicos, logs de seguridad, políticas de retención, copias de respaldo y obligaciones regulatorias que el usuario promedio desconoce. Eliminar un chat desde la interfaz no equivale necesariamente a su eliminación técnica inmediata.
Cuando interviene la justicia, la pregunta ya no es qué creemos que es privado, sino qué datos existen efectivamente y pueden ser técnicamente recuperados.
Las vías por las que puede llegar a un expediente
Desde el punto de vista jurídico existen distintos caminos posibles. Uno es el requerimiento al proveedor del servicio.
ChatGPT es operado por OpenAI. Para la mayoría de los usuarios fuera de Europa, la entidad contractual es OpenAI, L.L.C., con sede en Estados Unidos. Para usuarios del Espacio Económico Europeo interviene OpenAI Ireland Ltd., con sede en Irlanda.
No existe domicilio operativo en Argentina que permita ejecutar directamente una orden judicial local. Si un juez argentino quisiera avanzar, debería canalizar el pedido mediante cooperación judicial internacional, a través de un exhorto.
La experiencia con otras plataformas digitales demuestra que estos requerimientos no siempre obtienen respuesta. En redes sociales como X u otras compañías tecnológicas, la colaboración suele ser más ágil cuando se trata de delitos graves —explotación sexual infantil, trata de personas, amenazas que comprometen a autoridades— donde existen protocolos internacionales específicos.
En otros supuestos, la respuesta puede demorarse o directamente no producirse. En materia de inteligencia artificial aún no existe una casuística consolidada, pero todo indica que el esquema de cooperación podría replicar esas mismas dinámicas: mayor colaboración en delitos particularmente sensibles y mayores obstáculos en investigaciones de otra naturaleza.
No es inmediato. Pero es jurídicamente posible. Ahora bien, no es el único camino.
En la práctica, muchas veces la vía más directa no es internacional sino local: el secuestro de dispositivos electrónicos.
No hace falta un allanamiento espectacular. Puede tratarse del secuestro de teléfonos celulares, notebooks, computadoras o servidores en el marco de una investigación. El procedimiento comienza con la extracción forense: una copia íntegra del contenido del dispositivo preservando la cadena de custodia. Luego se realiza el análisis técnico, que puede recuperar historiales locales, archivos temporales o incluso datos eliminados que no hayan sido sobrescritos.
Aun sin exhorto internacional, la conversación puede terminar incorporada al expediente.
¿Es una confesión?
No en sentido técnico. La confesión procesal exige declaración ante autoridad judicial con asistencia letrada. Una conversación con una inteligencia artificial no cumple esos requisitos.
Sin embargo, puede ser valorada como elemento indiciario dentro del conjunto probatorio.
Nuestro sistema procesal permite al juez valorar la prueba en conjunto y formar convicción razonada a partir de indicios articulados dentro del expediente.
No es una confesión automática. Tampoco es irrelevante.
El precedente que marca tendencia
En Estados Unidos ya existe un antecedente significativo en el que un juez sostuvo que las consultas realizadas a sistemas de inteligencia artificial no estaban amparadas por secreto profesional, diferenciándolas de la relación abogado-cliente.
Aunque se trate de un precedente extranjero, marca una dirección posible en la evolución de la prueba digital.
Cuando el problema ya no es sólo jurídico
Si una conversación se incorpora a una causa y trasciende públicamente, el impacto puede ser inmediato.
En empresas reguladas o compañías que cotizan, el daño reputacional puede traducirse en impacto económico real: pérdida de confianza, presión de inversores, cuestionamientos regulatorios.
Pero incluso sin llegar a una instancia judicial, una filtración o una viralización puede desencadenar una crisis reputacional.
Hoy las crisis no comienzan únicamente en tribunales. Se inician en entornos digitales, en capturas de pantalla que circulan sin control.
Defensa legal estratégica y gestión integral
Uno de los errores más frecuentes es la fragmentación. Abordar la defensa judicial por un lado y la comunicación institucional por otro suele amplificar el daño.
Cuando una evidencia digital aparece —o puede aparecer— en una causa, la respuesta debe ser integral desde el primer momento.
Defensa legal estratégica, control técnico de la prueba digital, intervención de peritos de parte, evaluación del impacto institucional, diseño de protocolos internos y coordinación comunicacional forman parte de una misma arquitectura.
Prevención: la nueva frontera
La inteligencia artificial es una herramienta extraordinaria. Aporta eficiencia y velocidad. Pero exige reglas de uso.
Las organizaciones que se anticipan incorporan protocolos claros sobre cómo utilizar sistemas de IA, qué información puede compartirse, qué no debe ingresarse y cómo actuar ante una eventual investigación o filtración.
La mayoría de las empresas y profesionales aún no cuentan con estos protocolos.
Plantear hipótesis ante una inteligencia artificial no es delinquir.
Pero ignorar el riesgo jurídico y reputacional puede ser un error estratégico.
La pregunta ya no es si la tecnología puede terminar en un expediente.
La pregunta es si las empresas y los profesionales están siendo asesorados por especialistas que comprendan integralmente el cruce entre derecho penal, prueba digital, compliance y gestión de crisis.
Porque cuando la evidencia aparece —en un proceso judicial o en el espacio público— el margen de maniobra se reduce.
La diferencia no está en usarla o no usarla.
La diferencia está en anticiparse.
En contar, antes de que el problema explote, con asesoramiento profesional integrado que permita diseñar protocolos, minimizar exposición y actuar estratégicamente cuando la situación lo exige.