La IA no olvida: estudio demuestra que los datos personales que se borran nunca desaparecen

Tecnologías como bases de datos temporales, blockchain y aprendizaje automático complejizan la eliminación de información

Guardar
La inteligencia artificial es capaz
La inteligencia artificial es capaz de recuperar datos que los usuarios consideran borrados, generando riesgos legales y éticos en la gestión digital. (Imagen Ilustrativa Infobae)

Un reciente trabajo científico ha puesto el foco en un aspecto preocupante de la tecnología actual: los sistemas de inteligencia artificial pueden recuperar datos que los usuarios creían borrados, lo que plantea una serie de riesgos técnicos, éticos y legales.

Esta investigación, realizada por expertos de la Universidad de Zaragoza y La Rioja, advierte sobre la incapacidad de garantizar la desaparición definitiva del pasado digital, incluso tras el borrado explícito de información.

Qué hallaron los investigadores sobre la IA y el borrado de datos

El artículo, publicado en la revista ACM Computing Surveys, analiza en profundidad la naturaleza y los desafíos que implica la supresión de datos en la era digital. El grupo de investigadores, compuesto por Ignacio Marco-Pérez, Beatriz Pérez Valle y Ángel Luis Rubio (Universidad de La Rioja), junto a María Antonia Zapata (Universidad de Zaragoza), expone que el borrado de datos no siempre es irreversible.

El trabajo ofrece una revisión técnica y terminológica, diferenciando entre “borrado recuperable” y “borrado no recuperable”, y destaca cómo la inteligencia artificial es capaz de acceder a datos que habían sido marcados como eliminados.

La IA distingue entre borrado
La IA distingue entre borrado recuperable y borrado no recuperable, pudiendo acceder a fragmentos de información dispersa en sistemas avanzados. (Imagen Ilustrativa Infobae)

El estudio describe que existen tecnologías, como las bases de datos temporales, el blockchain o los sistemas de aprendizaje automático, en las que el concepto de borrado adquiere una dimensión compleja.

En estos entornos, pueden quedar copias residuales o fragmentos de información dispersa, que los algoritmos avanzados logran identificar y reconstruir, vulnerando así la intención original de quienes solicitaron la eliminación de esos datos.

Cuáles son los riesgos de una IA que nunca olvida

El hallazgo central del trabajo reside en la advertencia de que la inteligencia artificial puede recuperar información previamente borrada, incluso cuando se presume que el proceso de eliminación fue exitoso. Esto pone en jaque el principio del “derecho al olvido”, especialmente relevante en el ámbito de la Unión Europea, donde cualquier persona tiene el derecho a exigir la eliminación de sus datos personales de las bases de empresas y entidades.

El riesgo no es solo técnico, sino también ético y legal. Por un lado, la existencia de copias de seguridad, necesarias para prevenir pérdidas accidentales, puede dificultar el cumplimiento efectivo del derecho al olvido. Por otro, la posibilidad de que una IA reconstruya información desde datos fragmentados abre la puerta a usos indebidos, filtraciones y ataques a la privacidad.

Tecnologías como bases de datos
Tecnologías como bases de datos temporales, blockchain y aprendizaje automático complejizan la supresión real de datos digitales. (Imagen Ilustrativa Infobae)

Las empresas y entidades custodias de datos se ven obligadas a establecer protocolos sólidos que no solo ejecuten el borrado, sino que garanticen que la eliminación es real y total. El desafío se intensifica ante la proliferación de dispositivos capaces de almacenar datos: no solo ordenadores y servidores, sino también teléfonos móviles, relojes inteligentes, televisores conectados e incluso vehículos.

El estudio también subraya la importancia de abordar el destino de los datos en situaciones particulares, como el fallecimiento de una persona. La huella digital puede perdurar indefinidamente, y salvo instrucciones explícitas, no queda claro quién tiene derecho a usar, acceder o prohibir el uso de esa información tras la muerte del titular.

Datos que nunca se deben compartir con la IA

Los expertos en ciberseguridad insisten en la necesidad de no compartir nunca información personal, bancaria, contraseñas ni ningún dato sensible con sistemas de inteligencia artificial conversacional. Aunque estos entornos aparentan privacidad, las conversaciones no cuentan con cifrado de extremo a extremo ni con garantías de protección adecuadas para datos críticos.

Existe un riesgo real de exposición si un tercero logra acceder a la cuenta de usuario, o si las plataformas deciden utilizar las conversaciones para seguir entrenando sus modelos, lo que puede derivar en filtraciones o usos no autorizados.

Especialistas en ciberseguridad recomiendan no
Especialistas en ciberseguridad recomiendan no compartir información personal o confidencial con sistemas de inteligencia artificial conversacional por riesgos de filtración. (Imagen Ilustrativa Infobae)

En el ámbito profesional, tampoco se recomienda introducir informes financieros, datos estratégicos, listas de clientes o cualquier información confidencial en estos sistemas.

Las políticas internas de seguridad suelen prohibir el uso de herramientas externas para gestionar información delicada, ya que la inteligencia artificial no distingue entre datos públicos y privados y puede almacenar o reutilizar información sin control del usuario.

No debe olvidarse que estos sistemas no sustituyen el criterio de médicos, abogados o asesores financieros. Tomar decisiones médicas, legales o económicas basándose exclusivamente en las respuestas que ofrece una IA puede acarrear consecuencias graves, desde diagnósticos erróneos hasta problemas legales o financieros.