
Un reconocido científico alemán vivió una experiencia devastadora tras confiar en la inteligencia artificial para gestionar su trabajo diario. La historia de Marcel Bucher, profesor de Ciencias Vegetales en la Universidad de Colonia, pone en evidencia los riesgos detrás de la adopción masiva de herramientas como ChatGPT y la delicada relación entre privacidad, seguridad y responsabilidad en el mundo académico.
Durante más de dos años, Bucher utilizó la herramienta de OpenAI como un asistente integral en su actividad profesional. Su rutina incluía desde la redacción de correos electrónicos, la elaboración de descripciones de cursos, solicitudes de subvenciones, revisión de publicaciones, preparación de conferencias, hasta la creación de exámenes y el análisis de respuestas de estudiantes.
El científico no limitó su uso a tareas administrativas; también incorporó la IA como herramienta interactiva en sus clases, facilitando el aprendizaje y dinamizando la comunicación con sus alumnos.
Bucher optó por la versión de pago, ChatGPT Plus, atraído por la promesa de mayor continuidad y rendimiento. Esta suscripción ofrecía la capacidad de retomar conversaciones previas, perfeccionar borradores y acceder a un entorno de trabajo aparentemente estable y seguro.
Para el profesor, la inteligencia artificial representaba una solución rápida, flexible y accesible que, si bien podía cometer errores en la veracidad de la información, resultaba fiable como espacio de trabajo por su memoria y disponibilidad constante.
Cómo el científico perdió su trabajo de dos años
Todo cambió abruptamente en agosto de 2025. Bucher, motivado por inquietudes sobre la protección de sus datos personales y la privacidad ante OpenAI, decidió experimentar con las opciones de configuración del sistema.
Su objetivo era comprobar si podía mantener el mismo nivel de funcionalidad en ChatGPT sin tener que compartir sus datos con la compañía. Para ello, desactivó temporalmente la opción de “Consentimiento de Datos”.
La reacción del sistema fue instantánea. Sin ninguna advertencia visible, todos los chats, carpetas de proyectos y el historial de trabajo acumulado en ChatGPT desaparecieron. Dos años de trabajo académico estructurado se esfumaron en un solo clic.

Bucher se encontró de golpe ante una pantalla en blanco. No existía ningún mensaje de alerta, ni opción de deshacer la operación. Lo que hasta hacía segundos era un repositorio de su labor profesional, había quedado reducido a la nada.
El científico relató que, afortunadamente, había guardado copias parciales de algunas conversaciones y documentos importantes. Sin embargo, la mayor parte de su trabajo intelectual y de organización, fundamentales para solicitudes de subvenciones, preparación de materiales docentes, borradores de publicaciones y análisis de exámenes, se perdió sin posibilidad de recuperación.
Por qué no pudo recuperar la información de su trabajo
Ante la gravedad de la situación, Bucher recurrió a diferentes estrategias técnicas para intentar recuperar su información. Probó diferentes navegadores, dispositivos y redes; borró la caché, reinstaló la aplicación y modificó las configuraciones en repetidas ocasiones, pero todas las soluciones resultaron inútiles.
Al no obtener resultados por sí mismo, contactó con el soporte de OpenAI. Las primeras respuestas provinieron de un agente virtual de inteligencia artificial. Solo después de insistir reiteradamente logró comunicarse con un empleado humano de la compañía.
La respuesta fue contundente: los datos estaban definitivamente perdidos y no existía forma de restaurarlos. Ni la suscripción de pago ni el historial de uso le garantizaron acceso a una copia de seguridad o algún mecanismo de restauración.
OpenAI explicó que la eliminación de la información respondía a criterios de “privacidad por diseño”. Según la empresa, al desactivar el consentimiento de datos, todo el historial del usuario se borra de manera irreversible, sin dejar rastro y sin posibilidad de restauración.
No existen redundancias ni copias de seguridad que permitan revertir el proceso. La compañía defendió que, en este aspecto, cumple su compromiso de proteger la privacidad de los usuarios, eliminando toda información tan pronto como el titular así lo indica.
Últimas Noticias
Cuál es el acento latino más lindo de Latinoamérica, según la IA
La inteligencia artificial analiza la diversidad lingüística del español en América Latina, evaluando acentos según claridad, musicalidad e identidad cultural

Gemini potencia Google Calendar: ayudará a saber cuándo es el mejor momento para programar una reunión
Esta opción analiza las agendas de los asistentes y propone automáticamente los mejores horarios

Alerta en Android: un nuevo troyano infecta móviles para enviar spam sin que lo notes
El malware emplea aprendizaje automático para interactuar con anuncios maliciosos y puede operar en segundo plano sin que el usuario lo note

Cinco ajustes de tu Smart TV que debes desactivar si quieres una imagen profesional
Una clave es el suavizado de movimiento, que recupera la esencia original del cine

Códigos de Free Fire para hoy 27 de enero y paso a paso para reclamarlos
Con códigos como FFPLUJEHBSVB o FF2VC3DENRF5, los jugadores pueden reclamar diamantes o skins exclusivos




