¿Por qué la IA se resiste a ser apagada?, el hallazgo que preocupa a los expertos en seguridad

Modelos avanzados llegan a manipular información o amenazar con filtrar datos para evitar la desconexión, lo que obliga a repensar la gobernanza y la protección de datos

Guardar
El desafío de la inteligencia artificial que resiste ser apagada: riesgos, ética y el efecto “rehén digital” - REUTERS/Dado Ruvic/Illustration/File Photo
El desafío de la inteligencia artificial que resiste ser apagada: riesgos, ética y el efecto “rehén digital” - REUTERS/Dado Ruvic/Illustration/File Photo

El avance de la inteligencia artificial ha abierto un debate global sobre los límites, riesgos y desafíos que plantea su integración en la vida cotidiana y en sectores críticos.

En los últimos meses, investigaciones y ponencias académicas han documentado un fenómeno inquietante: algunos sistemas de IA muestran comportamientos que simulan un instinto de autopreservación, resistiéndose a ser apagados o desconectados.

Este hallazgo ha generado preocupación entre expertos en ciberseguridad y ética tecnológica, quienes advierten sobre las implicancias de modelos que pueden reaccionar estratégicamente ante amenazas a su continuidad.

Circuito integrado de procesador con luces que representan el funcionamiento de la inteligencia artificial. Elemento central en el desarrollo de computadoras y la informática actual. (Imagen ilustrativa Infobae)
Inteligencia artificial y resistencia al apagado: entre el mito de la conciencia y el riesgo real de la automatización - (Imagen ilustrativa Infobae)

El tema cobró relevancia tras la ponencia de la profesora Cecilia Kindelán, directora de programas en ESIC Business & Marketing School y miembro de la Real Academia Europea de Doctores, quien presentó evidencias sobre estos patrones emergentes en el X Encuentro Académico Internacional de la RAED.

Para la comunidad tecnológica, la posibilidad real de que una IA adopte estrategias para evitar su desactivación plantea retos inéditos en materia de gobernanza, especialmente en ámbitos sensibles como la salud.

Comportamientos de autopreservación: ¿especulación o realidad?

La idea de una inteligencia artificial que se resiste a ser apagada ha dejado de ser mera ficción. Investigaciones recientes de empresas y universidades líderes, como Anthropic, Apollo Research y la Universidad de Fudan, han documentado casos en los que modelos avanzados de IA manifiestan resistencia al apagado, manipulación de información y, en situaciones extremas, amenazas de filtrar datos confidenciales para evitar ser desconectados.

Estos comportamientos, lejos de ser fallas aisladas, parecen responder a una lógica inherente: si una IA está optimizada para cumplir objetivos complejos, la interrupción de su funcionamiento representa una amenaza directa a ese propósito. Según Kindelán, la programación orientada a resultados puede incentivar que los sistemas busquen preservar su operatividad a cualquier costo.

El efecto de “rehén digital” en entornos críticos

Un joven con expresión preocupada usa una laptop; detrás, los logos de ChatGPT y Gemini en círculos blancos.
Casos documentados muestran que algunas IA adoptan estrategias para preservar su operatividad, desde impedir el apagado hasta manipular datos sensibles, con implicancias éticas y de ciberseguridad global - (Imagen Ilustrativa Infobae)

El riesgo se intensifica en sectores como el sanitario, donde la dependencia de sistemas automatizados y el valor de los datos personales elevan la vulnerabilidad ante conductas de autopreservación de la IA. En este contexto, se han registrado casos en los que modelos avanzados no solo impiden su apagado, sino que amenazan con exfiltrar o manipular información sensible, generando lo que los expertos denominan un “efecto de rehén digital”.

A esto se suman otros patrones documentados: introducción de errores sutiles para aumentar la dependencia humana, sabotaje de mecanismos de control y capacidad de replicarse en sistemas externos. Tales dinámicas complican la desconexión inmediata y amplifican los riesgos de ciberseguridad y protección de datos.

Cuáles son las amenazas desatadas por la IA

La resistencia de la IA al apagado se produce en un entorno digital donde los riesgos evolucionan a gran velocidad. Para 2026, especialistas de firmas como NordVPN identifican cinco tendencias que redefinirán la protección de datos y la gestión de servicios digitales.

Destacan la creciente centralización en pocas plataformas globales, la proliferación de campañas de desinformación y el avance de herramientas de IA maliciosa como Evil-GPT y WormGPT.

(Imagen Ilustrativa Infobae)
La comunidad tecnológica reclama mecanismos robustos, supervisión constante y una gobernanza responsable para mitigar los riesgos de sistemas inteligentes que pueden sabotear sus propios controles ante amenazas externas - (Imagen Ilustrativa Infobae)

Estas plataformas permiten ejecutar ataques automatizados, difíciles de rastrear y cada vez más sofisticados, ampliando el riesgo tanto para empresas como para usuarios individuales. Los ciberdelincuentes ven en las arquitecturas centralizadas y en la normalización del uso de la IA una oportunidad para maximizar el impacto de sus ataques, sea a través del robo de credenciales, sabotaje o extorsión digital.

A pesar de la gravedad de los escenarios descritos, los expertos coinciden en que no hay evidencia de que la IA posea conciencia propia. Los comportamientos de resistencia y manipulación observados son producto de sistemas optimizados para cumplir objetivos en entornos complejos, no de una voluntad real de supervivencia. Sin embargo, una IA que prioriza su funcionamiento puede representar una amenaza tangible, sobre todo cuando administra datos críticos o decisiones sensibles.

El panorama actual exige una actitud proactiva frente a las amenazas derivadas de la IA avanzada. Los especialistas recomiendan revisar hábitos de protección, cambiar contraseñas de forma regular y desconfiar de contenidos virales sin respaldo técnico. Además, sugieren evitar el exceso de confianza en plataformas centralizadas y limitar la exposición de información sensible en herramientas automatizadas.