Una investigación reveló que decenas de miles de conversaciones de usuarios con la inteligencia artificial ChatGPT se habían compartido públicamente en Google, exponiendo información sensible. Entre los casos detectados, algunos ejecutivos compartían datos confidenciales sin ser conscientes de ello.
Entre los hallazgos más destacados, un CEO reveló a la IA información crítica sobre acuerdos financieros, proyecciones privadas de ingresos e información sobre clientes protegidos por acuerdos de confidencialidad (NDA), especialmente de Asia. Además, criticaba públicamente a otros ejecutivos por su nombre.
Este descubrimiento forma parte de la investigación realizada por la plataforma Digital Digging.

Cómo se llevó a cabo este estudio
El estudio fue realizado por Henk Van Ess, periodista y profesor de la Universidad de Arizona, quien analizó decenas de miles de conversaciones de ChatGPT que habían sido compartidas públicamente en internet.
Para acceder a estos diálogos, no necesitó conocimientos de hacking ni herramientas complejas; simplemente utilizó Google para localizar los enlaces que los usuarios habían compartido sin darse cuenta de que se indexaban en los motores de búsqueda.
Van Ess también utilizó otra inteligencia artificial, el chatbot Claude, para generar palabras clave que ayudaran a encontrar conversaciones sensibles, como términos relacionados con información confidencial o números de seguridad social.

Gracias a esta metodología, pudo identificar diálogos que contenían datos altamente delicados, desde proyecciones financieras y estrategias de negocios hasta planes potencialmente ilegales o comprometedores.
El origen del problema no fue un fallo de seguridad, sino la función 'Compartir conversación' de ChatGPT, que permitía que miles de usuarios crearan enlaces públicos pensando que eran privados.
OpenAI posteriormente deshabilitó esta función y trató de desindexar los enlaces, aunque Van Ess pudo acceder a muchas conversaciones a través de Archive.org, la plataforma que almacena contenidos de internet de manera permanente.

El director de Wayback Machine, Mark Graham, declaró en su momento:
“Puedo asegurar que no hemos recibido ni procesado ninguna solicitud masiva para excluir las URL chatgpt.com/share. Si OpenAI, propietario de los derechos sobre el material del dominio chatgpt.com, solicitara la exclusión de las URL con ese patrón, probablemente atenderíamos la petición. Sin embargo, hasta ahora, no han hecho ninguna solicitud”.
Qué tipo de información se encontró
La investigación de Henk Van Ess reveló que muchas conversaciones de ChatGPT compartidas públicamente contenían información altamente sensible.
Entre los datos expuestos se encontraron resultados financieros de empresas, incluidos acuerdos próximos y proyecciones de ingresos antes de hacerse públicos, lo que representa un riesgo para compañías cotizadas.

También se hallaron informaciones legales y conflictos internos, como planes de negocios que afectaban a comunidades vulnerables, por ejemplo, un abogado de una multinacional detallando cómo desplazar a comunidades indígenas para construir una planta hidroeléctrica.
Además, se descubrieron críticas personales a otros ejecutivos, identificando a individuos por su nombre.
Incluso se encontraron intentos de generar contenido sexualmente explícito con menores, evidenciando tanto vulnerabilidades del sistema como intenciones peligrosas de algunos usuarios.
Van Ess destacó la cantidad de información personal que los usuarios compartían, desde números de seguridad social hasta detalles íntimos de su vida cotidiana, como terapias, problemas familiares o financieros.
Sam Altman sobre compartir información privada con ChatGPT
Sam Altman, director ejecutivo de OpenAI, advirtió que las conversaciones con ChatGPT no siempre serán completamente privadas.
Explicó que actualmente no existen mecanismos legales que protejan la información personal confidencial compartida con la IA si una demanda obliga a OpenAI a revelarla.
Altman hizo estas declaraciones durante una entrevista con Theo Von para su podcast: “La gente habla de los aspectos más personales de su vida con ChatGPT. Muchos, especialmente los jóvenes, lo usan como terapeuta o coach de vida”, señaló.
Actualmente, cuando alguien habla con un terapeuta, abogado o médico, existen protecciones legales que garantizan la confidencialidad. “Todavía no hemos resuelto cómo aplicar esos privilegios en el caso de ChatGPT”, dijo Altman.
Últimas Noticias
Así ayuda la IA a ayudar a encontrar personas desaparecidas mediante fotos
La inteligencia artificial y el uso de drones están revolucionando las búsquedas de personas desaparecidas en zonas de montaña

OpenAI lanza suscripción de bajo precio para ChatGPT en todo el mundo
OpenAI lanzó ChatGPT Go, una suscripción global de bajo costo que incluye anuncios en el chat, una medida que divide opiniones

Pidió un Nokia en el 2010 y luego de 16 años se lo entregaron: hoy el celular vale una fortuna
El colapso de los servicios logísticos y la inestabilidad política del país del comprador impidieron que pudiera recibir el teléfono durante una década

Pagar con los ojos ya es una realidad: así funciona el primer sistema de pagos con iris
La propuesta busca eliminar fricciones en el pago digital y anticipa un escenario en el que autorizar una compra sea tan simple como mirar el importe

Ranking de animes: los 10 más vistos esta semana en Crunchyroll
La plataforma de streaming cuenta en su catálogo con series exclusivas que están en emisión en Japón




