Microsoft alerta del riesgo de los agentes de IA dobles ante la rápida adopción de esta tecnología en las organizaciones

El informe Cyber Pulse 2026 advierte sobre la proliferación de programas autónomos capaces de vulnerar sistemas empresariales, ya que más del 80% de grandes compañías emplean estas herramientas sin suficientes controles ni supervisión de seguridad, según Microsoft

Guardar

Según el informe Cyber Pulse 2026 de Microsoft, las empresas pioneras ya han comenzado a conformar equipos híbridos compuestos tanto por personas como por agentes de inteligencia artificial, una tendencia que avanza rápidamente entre las grandes compañías del mundo. Microsoft detalló que más del 80 por ciento de las firmas que integran la lista Fortune 500 utilizan actualmente agentes activos desarrollados con herramientas de bajo código para automatizar procedimientos y gestionar tareas complejas dentro de su estructura. Este crecimiento acelerado, según advirtió la compañía en declaraciones recogidas por el informe, origina una serie de riesgos asociados con la acumulación excesiva de privilegios y accesos que se otorgan a estos sistemas, lo que abre la puerta a lo que Microsoft ha identificado como “agentes dobles”, actores capaces de ejecutar acciones maliciosas sin que sean detectados por las organizaciones.

El medio consigna que la integración de agentes de IA en sectores diversos ya se encuentra extendida. Áreas como el software y la tecnología concentran el 16 por ciento del uso de estos sistemas, seguidas de la industria manufacturera con un 13 por ciento, entidades financieras con un 11 por ciento y el comercio minorista con un 9 por ciento. Estos agentes trabajan en funciones que varían desde la redacción de propuestas y el análisis de información financiera, hasta la clasificación de alertas de seguridad, la automatización de procesos repetitivos y la obtención de datos a velocidades muy superiores a las de los equipos humanos.

Microsoft puntualizó que los agentes de inteligencia artificial pueden funcionar en dos modalidades principales: asistida, en la que responden a instrucciones proporcionadas por usuarios humanos, y autónoma, caracterizada por una intervención humana mínima o nula en el desarrollo de tareas asignadas. Tal como difundió la empresa, la rápida expansión de estos agentes tecnológicos está dejando atrás la capacidad de muchas empresas para mantener un seguimiento y control efectivo sobre su comportamiento y función dentro de los sistemas empresariales. Esta situación ha facilitado la proliferación de lo que el informe califica como “IA en la sombra”, un fenómeno en el que los agentes trabajan fuera del alcance de los mecanismos de supervisión implementados por las organizaciones.

El informe destaca que, al gozar de amplios accesos y permisos, estos agentes pueden ser explotados fácilmente con fines maliciosos, sobre todo cuando sus privilegios no se ajustan a los requerimientos mínimos de seguridad o cuando ejecutan instrucciones procedentes de fuentes no fiables. “Un agente con demasiados permisos –o con instrucciones incorrectas– puede convertirse en una vulnerabilidad”, señaló Microsoft a través de un comunicado oficial citado por diversos medios internacionales. Añadió que, del mismo modo que los empleados pueden convertirse en amenazas internas si no reciben una correcta gestión de permisos, los agentes de IA presentan el mismo riesgo si operan con facultades inadecuadas o si son manipulados desde canales externos no autorizados.

Además, según recoge el Data Security Index de Microsoft, solo el 47 por ciento de las empresas afirman haber implementado controles específicos de seguridad para la inteligencia artificial generativa, lo que deja a la mayoría expuestas a potenciales incidentes y brechas de datos. En este contexto, la compañía moderna subrayó la urgencia de adoptar marcos de seguridad rigurosos para los agentes, abogando en particular por la implementación del enfoque “Zero Trust” o seguridad de confianza cero.

Este modelo de protección, según describió Microsoft en su informe y comunicados, se basa en conceder únicamente los privilegios estrictamente necesarios para cada agente, verificar de forma continua la legitimidad tanto de usuarios como de sistemas automatizados que solicitan accesos y planificar toda la arquitectura digital bajo el supuesto de que los actores maliciosos podrían penetrar los controles. La empresa recomendó que las organizaciones rediseñen los permisos y el monitoreo de sus agentes para detectar cualquier acceso no previsto o ejecución de tareas fuera de lo estipulado.

Microsoft enfatizó que la gestión de permisos inadecuados o la falta de vigilancia puede ocasionar que los agentes de IA se conviertan en una vía de entrada para acciones hostiles, ya que, dotados de autonomía y capacidades avanzadas, carecen de las limitaciones naturales que restringen los movimientos de los usuarios humanos. Por ello, sugirió un control permanente y sistemas capaces de alertar cuando los agentes presenten comportamientos atípicos respecto a su configuración inicial.

El informe también incluyó un llamado de Microsoft a todas las organizaciones para que adapten sus políticas internas ante este nuevo escenario de riesgos. La empresa propuso que la supervisión y el rediseño de las estrategias de seguridad acompañen de cerca la expansión de agentes, en vez de considerarlo un proceso complementario posterior. Añadió que compartir experiencias y soluciones entre empresas podría acelerar la adopción de buenas prácticas en toda la industria.

Microsoft remarcó que la automatización de operaciones con agentes de IA ofrece ventajas en términos de eficiencia y capacidad de procesamiento, pero advirtió que este potencial se convierte en un desafío de seguridad si las organizaciones no ajustan sus sistemas de control y supervisión al mismo ritmo que la llegada de nuevas tecnologías. El informe Cyber Pulse 2026 articula, según la compañía, tanto los avances alcanzados como los riesgos emergentes, y busca que las empresas reflexionen sobre los mecanismos precisos para prevenir ataques desde el interior de sus propias plataformas tecnológicas.