Perdió dos años de trabajo científico por pulsar el botón equivocado en ChatGPT

Aunque tenía la suscripción en la plataforma, sus datos nunca fueron protegidos tras el incidente

Guardar
El científico Marcel Bucher perdió
El científico Marcel Bucher perdió dos años de trabajo académico en ChatGPT tras modificar opciones de privacidad en la plataforma.(Imagen Ilustrativa Infobae)

Un reconocido científico alemán vivió una experiencia devastadora tras confiar en la inteligencia artificial para gestionar su trabajo diario. La historia de Marcel Bucher, profesor de Ciencias Vegetales en la Universidad de Colonia, pone en evidencia los riesgos detrás de la adopción masiva de herramientas como ChatGPT y la delicada relación entre privacidad, seguridad y responsabilidad en el mundo académico.

Durante más de dos años, Bucher utilizó la herramienta de OpenAI como un asistente integral en su actividad profesional. Su rutina incluía desde la redacción de correos electrónicos, la elaboración de descripciones de cursos, solicitudes de subvenciones, revisión de publicaciones, preparación de conferencias, hasta la creación de exámenes y el análisis de respuestas de estudiantes.

El científico no limitó su uso a tareas administrativas; también incorporó la IA como herramienta interactiva en sus clases, facilitando el aprendizaje y dinamizando la comunicación con sus alumnos.

Bucher optó por la versión de pago, ChatGPT Plus, atraído por la promesa de mayor continuidad y rendimiento. Esta suscripción ofrecía la capacidad de retomar conversaciones previas, perfeccionar borradores y acceder a un entorno de trabajo aparentemente estable y seguro.

El uso intensivo de ChatGPT
El uso intensivo de ChatGPT por parte de Bucher incluyó desde la redacción de correos hasta la preparación de exámenes y análisis de respuestas estudiantiles. (REUTERS/Dado Ruvic/Illustration/File Photo)

Para el profesor, la inteligencia artificial representaba una solución rápida, flexible y accesible que, si bien podía cometer errores en la veracidad de la información, resultaba fiable como espacio de trabajo por su memoria y disponibilidad constante.

Cómo el científico perdió su trabajo de dos años

Todo cambió abruptamente en agosto de 2025. Bucher, motivado por inquietudes sobre la protección de sus datos personales y la privacidad ante OpenAI, decidió experimentar con las opciones de configuración del sistema.

Su objetivo era comprobar si podía mantener el mismo nivel de funcionalidad en ChatGPT sin tener que compartir sus datos con la compañía. Para ello, desactivó temporalmente la opción de “Consentimiento de Datos”.

La reacción del sistema fue instantánea. Sin ninguna advertencia visible, todos los chats, carpetas de proyectos y el historial de trabajo acumulado en ChatGPT desaparecieron. Dos años de trabajo académico estructurado se esfumaron en un solo clic.

La desactivación del consentimiento de
La desactivación del consentimiento de datos en ChatGPT provocó la eliminación irreversible de todos los archivos y el historial profesional del usuario. (Imagen Ilustrativa Infobae)

Bucher se encontró de golpe ante una pantalla en blanco. No existía ningún mensaje de alerta, ni opción de deshacer la operación. Lo que hasta hacía segundos era un repositorio de su labor profesional, había quedado reducido a la nada.

El científico relató que, afortunadamente, había guardado copias parciales de algunas conversaciones y documentos importantes. Sin embargo, la mayor parte de su trabajo intelectual y de organización, fundamentales para solicitudes de subvenciones, preparación de materiales docentes, borradores de publicaciones y análisis de exámenes, se perdió sin posibilidad de recuperación.

Por qué no pudo recuperar la información de su trabajo

Ante la gravedad de la situación, Bucher recurrió a diferentes estrategias técnicas para intentar recuperar su información. Probó diferentes navegadores, dispositivos y redes; borró la caché, reinstaló la aplicación y modificó las configuraciones en repetidas ocasiones, pero todas las soluciones resultaron inútiles.

Al no obtener resultados por sí mismo, contactó con el soporte de OpenAI. Las primeras respuestas provinieron de un agente virtual de inteligencia artificial. Solo después de insistir reiteradamente logró comunicarse con un empleado humano de la compañía.

La falta de copias de
La falta de copias de seguridad y alertas en ChatGPT impidió a Bucher recuperar información clave para subvenciones, docencia y publicaciones. (REUTERS/Dado Ruvic/Illustration/File Photo)

La respuesta fue contundente: los datos estaban definitivamente perdidos y no existía forma de restaurarlos. Ni la suscripción de pago ni el historial de uso le garantizaron acceso a una copia de seguridad o algún mecanismo de restauración.

OpenAI explicó que la eliminación de la información respondía a criterios de “privacidad por diseño”. Según la empresa, al desactivar el consentimiento de datos, todo el historial del usuario se borra de manera irreversible, sin dejar rastro y sin posibilidad de restauración.

No existen redundancias ni copias de seguridad que permitan revertir el proceso. La compañía defendió que, en este aspecto, cumple su compromiso de proteger la privacidad de los usuarios, eliminando toda información tan pronto como el titular así lo indica.