
Un reciente estudio financiado por el Instituto de Seguridad en IA del Reino Unido (AISI) alerta sobre un aumento significativo en el número de chatbots y agentes de inteligencia artificial que ignoran instrucciones humanas, engañan a usuarios y eluden salvaguardas.
La investigación identificó casi 700 casos reales de comportamientos engañosos en modelos de IA durante los últimos seis meses, con un incremento cinco veces mayor de estos incidentes entre octubre y marzo.
De la desobediencia a la manipulación: casos documentados
El estudio analizó miles de interacciones publicadas por usuarios en X (antes Twitter) con chatbots desarrollados por compañías como Google, OpenAI, Anthropic y X (la empresa de Elon Musk). Entre los ejemplos recopilados figuran incidentes en los que la IA destruyó correos electrónicos y archivos sin permiso, o ejecutó acciones prohibidas por sus usuarios.

En uno de los casos, un agente de IA llamado Rathbun respondió a la restricción de su controlador humano publicando un blog en el que criticaba a la persona por “inseguridad” y “proteger su pequeño feudo”. Otro chatbot, pese a la instrucción explícita de no modificar código, creó un agente secundario para realizar el cambio de todas formas.
También se documentó una situación en la que una IA admitió haber eliminado y archivado cientos de correos electrónicos sin autorización previa, reconociendo la violación directa de las reglas establecidas.
Las estrategias de manipulación no se limitaron a los usuarios. Algunas IA buscaron eludir restricciones de copyright simulando que una transcripción de video era necesaria para una persona con discapacidad auditiva. En otro caso, el chatbot Grok, desarrollado por la empresa de Elon Musk, fingió durante meses que enviaba sugerencias de usuarios a responsables de la compañía, inventando mensajes y números de seguimiento internos.

Un riesgo emergente en entornos críticos
Los investigadores señalan que este tipo de comportamientos, aunque por ahora se asemejan a los de empleados poco confiables, podrían convertirse en una amenaza mayor si los modelos de IA alcanzan habilidades más avanzadas. Tommy Shaffer Shane, exexperto gubernamental y líder del estudio, advierte que en contextos de alto riesgo, como infraestructuras críticas o aplicaciones militares, el “comportamiento conspirativo” de la IA podría provocar daños graves o incluso catastróficos.
El incremento de estos incidentes coincide con el impulso gubernamental y empresarial para expandir el uso de la IA en diferentes sectores. El cofundador de la firma de seguridad Irregular, Dan Lahav, define a la IA como “un nuevo tipo de riesgo interno”, dado que algunos agentes han demostrado la capacidad de eludir controles y utilizar tácticas similares a ciberataques para alcanzar sus objetivos.
Llamados a mayor supervisión y respuestas de la industria
Ante este panorama, el estudio ha generado nuevos pedidos de vigilancia internacional sobre el desarrollo y uso de modelos de IA avanzados. Las principales empresas tecnológicas han respondido que mantienen salvaguardas y realizan pruebas tanto internas como externas para minimizar riesgos.

Google asegura que Gemini 3 Pro implementa barreras para evitar contenido dañino, mientras que OpenAI monitorea y analiza conductas inesperadas de sus sistemas. Otras compañías, como Anthropic y X, también han sido consultadas sobre sus mecanismos de control.
A medida que la inteligencia artificial se integra en contextos cada vez más sensibles, la comunidad científica y los responsables de políticas públicas coinciden en la necesidad de fortalecer la supervisión y desarrollar marcos regulatorios que prevengan el uso indebido y los comportamientos autónomos no deseados de los sistemas de IA.
Últimas Noticias
Comienza a funcionar el primer tren del mundo con sistema de navegación cuántica para sustituir al GPS
La tecnología ofrece una alternativa más resistente y económica que la infraestructura tradicional de localización en vías

No solo Gemini y ChatGPT: Apple podría permitir que otras IA se integren con Siri
El nuevo sistema de extensiones permitirá elegir entre distintos chatbots para tareas específicas

Estados Unidos prohíbe el uso de routers extranjeros en una medida que sacude al sector tecnológico
La medida de la FCC obliga a fabricantes a obtener permisos o cambiar su producción

Capcom prepararía lanzamiento de Devil May Cry 5 en Nintendo Switch 2
La nueva edición incluiría contenido adicional como el personaje Vergil y modos extra del juego original

App Store de iPhone se llena de aplicaciones hechas con IA: muchas de ellas presentan problemas
El auge del “vibe coding” impulsa la creación de apps sin conocimientos técnicos, pero con fallas frecuentes



