
En tiempos en los que los asistentes de inteligencia artificial se convierten en parte cotidiana de la vida digital, surge un nuevo motivo de alerta. Sam Altman, director ejecutivo de OpenAI, afirmó que las conversaciones mantenidas con ChatGPT pueden adquirir valor probatorio en procedimientos judiciales si una autoridad así lo requiere.
En un episodio reciente del podcast This Past Weekend, conducido por Theo Von, Altman puso el foco en la importancia de la privacidad y en los potenciales riesgos legales asociados al uso de la plataforma. “Si hablas sobre tus cosas más sensibles con el chat y luego hay una demanda, podríamos estar obligados a entregar eso”, dijo.
La compañía detrás de ChatGPT procesa más de 2.500 millones de consultas diarias y sostiene, en su política de privacidad, que recopila y almacena información de los usuarios, incluidas las conversaciones, para “cumplir con obligaciones legales”.

Esta cláusula coloca a OpenAI en una posición en la que, ante una solicitud judicial, podría verse forzada a entregar registros de diálogos privados, replicando el mismo escenario que ya ha involucrado a otras compañías tecnológicas en investigaciones pasadas.
Qué casos judiciales han recopilado datos de dispositivos para encontrar pruebas
El debate sobre la privacidad en plataformas tecnológicas no se limita a ChatGPT. Hace 10 años, el caso del asesinato de Victor Collins en Arkansas marcó un precedente.
La policía solicitó a Amazon la entrega de registros de audio de un dispositivo Echo, argumentando que podría contener pruebas relevantes. Inicialmente, Amazon se negó por razones de privacidad, pero luego accedió a liberar los registros tras el consentimiento del propietario del dispositivo.
Un episodio similar ocurrió en New Hampshire, donde una investigación por homicidio llevó a una orden judicial dirigida a Amazon para acceder a grabaciones almacenadas en la nube, así que la empresa cedió a la solicitud tras la intervención judicial.

Estos casos sentaron un precedente: ni Amazon, ni OpenAI, ni ninguna empresa puede resistirse a una orden formal que requiera datos vinculados a un proceso penal o civil.
Cuáles pueden ser las consecuencias legales de conversar con ChatGPT
Samuel Parra, abogado especializado en derecho tecnológico, según citó El Confidencial, dijo que “una conversación con ChatGPT puede ser objeto de solicitud por parte de la autoridad judicial, al igual que puede serlo una conversación en Instagram o un correo electrónico”.
El experto aclara que, en el caso de países como España, aunque existan políticas internas de confidencialidad, estas no prevalecen frente al deber de colaboración con la justicia.

“No hay ningún derecho en nuestro ordenamiento que esté por encima de los demás. Si la autoridad judicial requiere información, aunque contenga datos sensibles y personales, ese ciudadano tiene que transigir, porque hay otro bien jurídico protegido, como puede ser la persecución de un delincuente”, detalla el jurista.
Por qué los usuarios deben considerar los riesgos judiciales al conversar con la IA
Aunque la idea de confidencialidad absoluta pueda resultar atractiva para la mayoría de usuarios, la realidad legal es distinta. Las empresas operan bajo regulaciones que las obligan a almacenar y, llegado el caso, entregar los contenidos cuando hay de por medio una orden judicial.
Altman, al advertir sobre la entrega potencial de los datos a autoridades, visibiliza hasta qué punto los límites de la privacidad alcanzan a quienes interactúan a diario con asistentes virtuales.

La política es común en todo el sector tecnológico; no existe una vía alternativa para las compañías cuando la justicia interviene. Las conversaciones pueden revelar información personal, datos sensibles y detalles de la vida privada que serían objeto de prueba en juicios, investigaciones criminales o litigios civiles.
Qué otros riesgos advierte Sam Altman sobre el uso masivo de ChatGPT
Altman en diferentes ocasiones ha enfatizado otra dimensión inquietante de la interacción con ChatGPT: la dependencia emocional y la delegación de decisiones.
“Hay gente joven que reconoce que no es capaz de tomar decisiones por sí mismo sin contarle a ChatGPT, me conoce a mí, a mis amigos, hago lo que me diga, eso me hace sentir mal”, describió Altman en la Conferencia de la Reserva Federal.
El fenómeno preocupa a especialistas y a los propios desarrolladores del sistema. La acumulación de datos íntimos y decisiones personales en los chats no solo implica un riesgo para la privacidad, sino que amplifica el alcance de la información que podría llegar a las autoridades si se judicializan los registros de la aplicación.
Últimas Noticias
Cómo usar IA para reducir hasta un 40% los intentos de fraude en Navidad
La adopción de metodologías predictivas y la capacitación continua emergen como factores decisivos para reducir incidentes

Qué trabajos dominarán en el futuro, según Jensen Huang, CEO de Nvidia
La transformación industrial y la modernización de fábricas abren nuevas oportunidades para quienes apuestan por carreras técnicas
Cofundador de Neuralink revela su nuevo proyecto: un chip en la retina para restaurar la visión
La miniaturización y la estimulación directa de células en la retina abren una nueva era para quienes buscan recuperar habilidades visuales perdidas

Este es el riesgo médico asociado con el uso del teléfono en el baño
Investigadores estadounidenses detectan que la permanencia con dispositivos en el inodoro puede tener consecuencias perjudiciales

Medellín, Cartagena y Bogotá, las ciudades más buscadas en internet para descansar en 2025
El uso de inteligencia artificial en plataformas como Civitatis y Skyscanner está transformando la experiencia de planificación, permitiendo a los viajeros encontrar destinos personalizados




