
Un reciente trabajo científico ha puesto el foco en un aspecto preocupante de la tecnología actual: los sistemas de inteligencia artificial pueden recuperar datos que los usuarios creían borrados, lo que plantea una serie de riesgos técnicos, éticos y legales.
Esta investigación, realizada por expertos de la Universidad de Zaragoza y La Rioja, advierte sobre la incapacidad de garantizar la desaparición definitiva del pasado digital, incluso tras el borrado explícito de información.
Qué hallaron los investigadores sobre la IA y el borrado de datos
El artículo, publicado en la revista ACM Computing Surveys, analiza en profundidad la naturaleza y los desafíos que implica la supresión de datos en la era digital. El grupo de investigadores, compuesto por Ignacio Marco-Pérez, Beatriz Pérez Valle y Ángel Luis Rubio (Universidad de La Rioja), junto a María Antonia Zapata (Universidad de Zaragoza), expone que el borrado de datos no siempre es irreversible.
El trabajo ofrece una revisión técnica y terminológica, diferenciando entre “borrado recuperable” y “borrado no recuperable”, y destaca cómo la inteligencia artificial es capaz de acceder a datos que habían sido marcados como eliminados.

El estudio describe que existen tecnologías, como las bases de datos temporales, el blockchain o los sistemas de aprendizaje automático, en las que el concepto de borrado adquiere una dimensión compleja.
En estos entornos, pueden quedar copias residuales o fragmentos de información dispersa, que los algoritmos avanzados logran identificar y reconstruir, vulnerando así la intención original de quienes solicitaron la eliminación de esos datos.
Cuáles son los riesgos de una IA que nunca olvida
El hallazgo central del trabajo reside en la advertencia de que la inteligencia artificial puede recuperar información previamente borrada, incluso cuando se presume que el proceso de eliminación fue exitoso. Esto pone en jaque el principio del “derecho al olvido”, especialmente relevante en el ámbito de la Unión Europea, donde cualquier persona tiene el derecho a exigir la eliminación de sus datos personales de las bases de empresas y entidades.
El riesgo no es solo técnico, sino también ético y legal. Por un lado, la existencia de copias de seguridad, necesarias para prevenir pérdidas accidentales, puede dificultar el cumplimiento efectivo del derecho al olvido. Por otro, la posibilidad de que una IA reconstruya información desde datos fragmentados abre la puerta a usos indebidos, filtraciones y ataques a la privacidad.

Las empresas y entidades custodias de datos se ven obligadas a establecer protocolos sólidos que no solo ejecuten el borrado, sino que garanticen que la eliminación es real y total. El desafío se intensifica ante la proliferación de dispositivos capaces de almacenar datos: no solo ordenadores y servidores, sino también teléfonos móviles, relojes inteligentes, televisores conectados e incluso vehículos.
El estudio también subraya la importancia de abordar el destino de los datos en situaciones particulares, como el fallecimiento de una persona. La huella digital puede perdurar indefinidamente, y salvo instrucciones explícitas, no queda claro quién tiene derecho a usar, acceder o prohibir el uso de esa información tras la muerte del titular.
Datos que nunca se deben compartir con la IA
Los expertos en ciberseguridad insisten en la necesidad de no compartir nunca información personal, bancaria, contraseñas ni ningún dato sensible con sistemas de inteligencia artificial conversacional. Aunque estos entornos aparentan privacidad, las conversaciones no cuentan con cifrado de extremo a extremo ni con garantías de protección adecuadas para datos críticos.
Existe un riesgo real de exposición si un tercero logra acceder a la cuenta de usuario, o si las plataformas deciden utilizar las conversaciones para seguir entrenando sus modelos, lo que puede derivar en filtraciones o usos no autorizados.

En el ámbito profesional, tampoco se recomienda introducir informes financieros, datos estratégicos, listas de clientes o cualquier información confidencial en estos sistemas.
Las políticas internas de seguridad suelen prohibir el uso de herramientas externas para gestionar información delicada, ya que la inteligencia artificial no distingue entre datos públicos y privados y puede almacenar o reutilizar información sin control del usuario.
No debe olvidarse que estos sistemas no sustituyen el criterio de médicos, abogados o asesores financieros. Tomar decisiones médicas, legales o económicas basándose exclusivamente en las respuestas que ofrece una IA puede acarrear consecuencias graves, desde diagnósticos erróneos hasta problemas legales o financieros.
Últimas Noticias
El creador de God of War arremetió contra Sons of Sparta y lo califica de “basura”
David Jaffe cuestiona la narrativa, el diseño y el precio del juego, criticando su compra y comparándolo desfavorablemente con otros títulos de acción en 2D del mercado

Solo Leveling llega a Fortnite: este es todo el contenido que estará en disponible
El juego incluirá picos temáticos y mochilas basadas en las armas e invocaciones de sombras inspiradas en el anime

Konami deja fuera a Xbox Series X en el lanzamiento de Silent Hill Townfall; será exclusivo de PS5 y PC en su debut
El anuncio tras el State of Play de Sony reaviva el debate sobre acuerdos temporales, mientras la comunidad de Xbox aguarda por una eventual adaptación del nuevo titulo de la saga de terror

El fin de las memorias USB: qué alternativas reemplazan a este formato de almacenamiento
Su presencia se limita a crear unidades de arranque, instalar sistemas operativos y mover datos en momentos sin acceso a internet

Starlink tiene una nueva política de tarifas en 2026: así se puede bajar el precio del internet satelital
La actualización permite a los usuarios de elegir la fecha exacta para modificar su plan, facilitando la administración financiera




