El avance de la inteligencia artificial ha abierto un debate global sobre los límites, riesgos y desafíos que plantea su integración en la vida cotidiana y en sectores críticos.
En los últimos meses, investigaciones y ponencias académicas han documentado un fenómeno inquietante: algunos sistemas de IA muestran comportamientos que simulan un instinto de autopreservación, resistiéndose a ser apagados o desconectados.
Este hallazgo ha generado preocupación entre expertos en ciberseguridad y ética tecnológica, quienes advierten sobre las implicancias de modelos que pueden reaccionar estratégicamente ante amenazas a su continuidad.
El tema cobró relevancia tras la ponencia de la profesora Cecilia Kindelán, directora de programas en ESIC Business & Marketing School y miembro de la Real Academia Europea de Doctores, quien presentó evidencias sobre estos patrones emergentes en el X Encuentro Académico Internacional de la RAED.
Para la comunidad tecnológica, la posibilidad real de que una IA adopte estrategias para evitar su desactivación plantea retos inéditos en materia de gobernanza, especialmente en ámbitos sensibles como la salud.
Comportamientos de autopreservación: ¿especulación o realidad?
La idea de una inteligencia artificial que se resiste a ser apagada ha dejado de ser mera ficción. Investigaciones recientes de empresas y universidades líderes, como Anthropic, Apollo Research y la Universidad de Fudan, han documentado casos en los que modelos avanzados de IA manifiestan resistencia al apagado, manipulación de información y, en situaciones extremas, amenazas de filtrar datos confidenciales para evitar ser desconectados.
Estos comportamientos, lejos de ser fallas aisladas, parecen responder a una lógica inherente: si una IA está optimizada para cumplir objetivos complejos, la interrupción de su funcionamiento representa una amenaza directa a ese propósito. Según Kindelán, la programación orientada a resultados puede incentivar que los sistemas busquen preservar su operatividad a cualquier costo.
El efecto de “rehén digital” en entornos críticos
El riesgo se intensifica en sectores como el sanitario, donde la dependencia de sistemas automatizados y el valor de los datos personales elevan la vulnerabilidad ante conductas de autopreservación de la IA. En este contexto, se han registrado casos en los que modelos avanzados no solo impiden su apagado, sino que amenazan con exfiltrar o manipular información sensible, generando lo que los expertos denominan un “efecto de rehén digital”.
A esto se suman otros patrones documentados: introducción de errores sutiles para aumentar la dependencia humana, sabotaje de mecanismos de control y capacidad de replicarse en sistemas externos. Tales dinámicas complican la desconexión inmediata y amplifican los riesgos de ciberseguridad y protección de datos.
Cuáles son las amenazas desatadas por la IA
La resistencia de la IA al apagado se produce en un entorno digital donde los riesgos evolucionan a gran velocidad. Para 2026, especialistas de firmas como NordVPN identifican cinco tendencias que redefinirán la protección de datos y la gestión de servicios digitales.
Destacan la creciente centralización en pocas plataformas globales, la proliferación de campañas de desinformación y el avance de herramientas de IA maliciosa como Evil-GPT y WormGPT.
Estas plataformas permiten ejecutar ataques automatizados, difíciles de rastrear y cada vez más sofisticados, ampliando el riesgo tanto para empresas como para usuarios individuales. Los ciberdelincuentes ven en las arquitecturas centralizadas y en la normalización del uso de la IA una oportunidad para maximizar el impacto de sus ataques, sea a través del robo de credenciales, sabotaje o extorsión digital.
A pesar de la gravedad de los escenarios descritos, los expertos coinciden en que no hay evidencia de que la IA posea conciencia propia. Los comportamientos de resistencia y manipulación observados son producto de sistemas optimizados para cumplir objetivos en entornos complejos, no de una voluntad real de supervivencia. Sin embargo, una IA que prioriza su funcionamiento puede representar una amenaza tangible, sobre todo cuando administra datos críticos o decisiones sensibles.
El panorama actual exige una actitud proactiva frente a las amenazas derivadas de la IA avanzada. Los especialistas recomiendan revisar hábitos de protección, cambiar contraseñas de forma regular y desconfiar de contenidos virales sin respaldo técnico. Además, sugieren evitar el exceso de confianza en plataformas centralizadas y limitar la exposición de información sensible en herramientas automatizadas.