Las conversaciones con ChatGPT se transformaron en pruebas clave en numerosas investigaciones criminales recientes en Estados Unidos, según la cadena de noticias internacional CNN.
Estas interacciones, percibidas por muchos usuarios como privadas, fueron integradas a expedientes judiciales para esclarecer motivos y acciones, desencadenando un debate sobre la protección de la privacidad ante la ley.
Uno de los casos más recientes se produjo en abril, cuando Hisham Abugharbieh, compañero de habitación de uno de los dos estudiantes de posgrado asesinados en la Universidad del Sur de Florida, realizó consultas a ChatGPT sobre “qué ocurre si una persona es colocada en una bolsa de basura negra y arrojada a un contenedor”, según consta en la declaración jurada que la fiscalía de Florida presentó ante la corte.
PUBLICIDAD
Cuando la aplicación le advirtió del peligro implícito, el acusado insistió con la pregunta: “¿Cómo podrían descubrirlo?”. De acuerdo con CNN, estos mensajes forman parte de los cargos de doble homicidio premeditado que enfrenta Abugharbieh y ejemplifican cómo las autoridades estadounidenses rastrean registros de chat de inteligencia artificial como fuentes de prueba en casos penales de alto perfil.
A diferencia de los diálogos con un abogado, médico o terapeuta, que están amparados por privilegios legales establecidos, los intercambios con chatbots de IA carecen de protecciones de confidencialidad.
Según Virginia Hammerle, abogada en Texas, “cualquier cosa que alguien escriba en ChatGPT podría estar sujeta a descubrimiento judicial”, dijo a la cadena de noticias internacional CNN.
PUBLICIDAD
Esto significa que las autoridades pueden presentar estos registros como prueba sin restricciones, equiparándolos a otros datos electrónicos como el historial de llamadas o los pagos con tarjetas bancarias.
El uso de los historiales de conversación con ChatGPT como evidencia no se restringe a este hecho. El expediente judicial contra Jonathan Rinderknecht, acusado de provocar el incendio de Palisades en California en 2025, incluye solicitudes que hizo a ChatGPT, como la generación de imágenes de “personas huyendo del fuego” y confesiones sobre haber quemado una Biblia y sentirse liberado, según consta en la denuncia penal reseñada por la cadena de noticias internacional CNN.
Además, tras reportar el fuego al 911, preguntó a la herramienta de IA: “¿Tienes culpa si un incendio se produce por tus cigarrillos?”, lo que la fiscalía considera un intento de fabricar una coartada.
PUBLICIDAD
Rinderknecht negó los cargos y su abogado, Steve Haney, sostuvo al medio CNN que “los registros de ChatGPT no constituyen ni confesión ni escena del crimen”. Para Haney, “el gobierno pide al jurado que lea la mente de un acusado a través de una barra de búsqueda, y ni la ciencia ni el derecho han permitido ese salto”.
El CEO de OpenAI, Sam Altman, reconoció en una entrevista para el pódcast de Theo Von en julio pasado, también citada por la cadena de noticias internacional CNN, que la ausencia de límites legales sobre la privacidad de estas interacciones es un “problema enorme”.
Altman señaló: “La gente habla sobre las cosas más personales con ChatGPT. Las personas lo usan, especialmente los jóvenes, como si fuera un terapeuta o un asesor de vida. Si esto se judicializa, podríamos vernos obligados a entregar esa información”.
PUBLICIDAD
El debate por la protección de la privacidad frente a la inteligencia artificial cobró relevancia tras la demanda interpuesta por las familias de las víctimas de un tiroteo en una escuela de Canadá en febrero, quienes denunciaron a OpenAI y a Altman por considerar que el uso de ChatGPT fue cómplice en el ataque, según informó la cadena de noticias internacional CNN.
Por su parte, la propia compañía subrayó en una declaración que mantiene su “compromiso con la seguridad de la comunidad” y que continuará priorizando la protección sin descuidar los riesgos colectivos.
El precedente de las búsquedas electrónicas en juicios penales
El empleo de historiales electrónicos en la instrucción penal no es enteramente nuevo. La jurisprudencia estadounidense reconoce casos donde búsquedas en Google fueron fundamentales para esclarecer el móvil o el conocimiento previo de un sospechoso.
PUBLICIDAD
En 2023, Brian Walshe fue declarado culpable del homicidio de su esposa, tras exhibirse ante el jurado búsquedas como “10 maneras de deshacerse de un cadáver” o “¿puedes ser juzgado por homicidio sin un cuerpo?”. De modo similar, en uno de los juicios de Karen Read, la atención se centró en el estado anímico de una testigo que había buscado “¿cuánto tiempo tarda en morir alguien en frío?”, lo cual se utilizó para analizar la intencionalidad.
Las autoridades subrayan que las consultas a la inteligencia artificial pueden revelar tanto el estado mental como el grado de planificación de los encausados. Las preguntas que Abugharbieh formuló a ChatGPT los días previos a la desaparición de las víctimas, entre ellas si podía poseer un arma de fuego sin licencia o si es posible modificar un número de identificación vehicular, constituyeron indicios relevantes para la imputación, según consta en la documentación recogida por la cadena de noticias internacional CNN.
Privacidad digital ante la ley estadounidense
El marco legal todavía no resolvió qué grado de protección debe concederse a estas interacciones en Estados Unidos. Altman defendió la necesidad de salvaguardar la privacidad, aunque admite la posibilidad de comprometer parte de ella en nombre de la seguridad colectiva, alertando sobre el riesgo de que los gobiernos excedan estos límites.
PUBLICIDAD
El historiador Nils Gilman, asesor principal del centro de estudios Berggruen Institute, argumentó en The New York Times que la sociedad debería otorgar confidencialidad legal a los diálogos con chatbots, del mismo modo que se hizo con médicos o abogados para garantizar conversaciones honestas.
Pese a estas propuestas, el consenso entre expertos legales consultados por la cadena de noticias internacional CNN es que, por ahora, los datos ingresados en ChatGPT carecen de privilegios y están sujetos a los mismos estándares de descubrimiento judicial que cualquier otro dato digital.
El analista jurídico Joey Jackson ilustró: “Sería como llamar por teléfono y después argumentar que esa llamada no puede utilizarse en nuestra contra”.
PUBLICIDAD
Las discusiones sobre eventuales excepciones —por ejemplo, materiales confidenciales que un abogado incorpore a una IA, o el caso de particulares que se autorrepresentan ante la justicia— aún carecen de jurisprudencia clara. Hammerle precisó a CNN: “El derecho está intentando alcanzar a la realidad”, y añadió que “ChatGPT no es su amigo, ni su abogado, ni su médico, ni su pareja. Deje de hablarle como si lo fuera”.