
La adopción acelerada de la inteligencia artificial en el mundo corporativo está generando un doble efecto: mientras las empresas logran automatizar procesos, mejorar su productividad y tomar decisiones más rápidas, también quedan expuestas a un nivel de riesgo digital sin precedentes.
Informes recientes del sector tecnológico advierten que el 97% de las compañías ya sufrió incidentes de seguridad vinculados al uso de IA, una cifra que confirma que el problema dejó de ser teórico y se convirtió en una amenaza concreta de cara a 2026.
Los datos surgen de análisis elaborados por actores clave del ecosistema tecnológico, entre ellos Akamai, Globant, PwC y Fortinet, que coinciden en que la inteligencia artificial ya no es solo una herramienta de eficiencia o defensa, sino también un nuevo vector de ataque que está siendo explotado de forma cada vez más sofisticada por ciberdelincuentes.

La promesa de la IA empresarial es clara. Modelos de lenguaje, agentes autónomos y sistemas inteligentes permiten optimizar operaciones, reducir costos y escalar negocios con mayor rapidez. Sin embargo, cada nuevo sistema conectado a datos sensibles amplía la superficie de ataque y desafía los esquemas tradicionales de ciberseguridad.
Un dilema estratégico para las compañías
Las organizaciones se encuentran ante un dilema difícil de evitar. Avanzar con la adopción de IA es casi una obligación competitiva, pero hacerlo sin una estrategia de seguridad sólida implica asumir riesgos elevados.
Desde Akamai advierten que los grandes modelos de lenguaje están comenzando a ser explotados mediante técnicas específicas, como la inyección de instrucciones maliciosas, la contaminación de datos de entrenamiento o la manipulación de fuentes externas conectadas a los sistemas de IA.

A diferencia de los ciberataques clásicos, estas prácticas no requieren vulnerar software convencional, lo que dificulta su detección con las herramientas habituales. Para Jairo Parra, especialista en ciberseguridad de Akamai Latinoamérica, el foco del riesgo se desplazó hacia todo el ciclo de vida de la inteligencia artificial: desde el entrenamiento de los modelos hasta su despliegue y actualización.
Si los datos de entrenamiento son alterados o si un modelo es inducido a comportarse de forma inesperada, el impacto puede ser silencioso pero profundo, afectando procesos automatizados, decisiones de negocio y, en última instancia, a los usuarios finales.
Del fraude individual al ataque corporativo
Otra tendencia que preocupa a los expertos es el uso de la IA como herramienta directa del delito. Según proyecciones de Akamai, los ciberdelincuentes están comenzando a utilizar modelos de lenguaje y automatización avanzada para lanzar estafas dirigidas a empresas, dejando atrás los fraudes masivos contra usuarios individuales.

Uno de los vectores más sensibles es la manipulación de identidades. Los deepfakes en tiempo real ya alcanzan niveles de realismo capaces de engañar incluso a profesionales experimentados, trasladando las estafas a reuniones virtuales, entrevistas laborales o llamadas corporativas. En este escenario, la idea de “ver para creer” pierde validez y obliga a replantear los mecanismos de verificación de identidad.
Este fenómeno no solo afecta a las empresas. Los consumidores también quedan expuestos a nuevas formas de fraude, robo de identidad y pérdida de confianza en los sistemas digitales, especialmente en servicios de pago y plataformas automatizadas.
Un problema casi universal
El diagnóstico de Globant refuerza esta visión. En su informe “Tech Trends 2026”, la compañía señala que las organizaciones ya superaron la fase experimental de la IA y avanzan hacia una inteligencia operativa y escalable. Sin embargo, ese salto implica una mayor exposición. Según el reporte, el 97% de las empresas sufrió incidentes de seguridad relacionados con IA, en muchos casos debido a controles de acceso deficientes.

Globant advierte que los atacantes están usando la IA para automatizar tareas de reconocimiento, explotar vulnerabilidades y generar engaños cada vez más creíbles. Frente a esto, las empresas comienzan a adoptar modelos de defensa predictiva basados en IA, aunque la tecnología por sí sola no alcanza si no existe una estrategia de gobernanza clara.
La IA autónoma como defensa y riesgo
PwC aporta otra mirada clave al debate. Su informe sobre IA autónoma en ciberseguridad indica que más de la mitad de los líderes del sector ya están explorando sistemas capaces de detectar y responder a incidentes sin intervención humana directa. La expectativa es reducir drásticamente los tiempos de reacción ante ataques cada vez más veloces.
Sin embargo, PwC advierte que esta autonomía también conlleva riesgos si no está acompañada de marcos éticos, supervisión constante y control humano. En América Latina, además, la IA aparece como una respuesta a la escasez de talento especializado, uno de los factores que más agravan la vulnerabilidad de las empresas.

Según Fortinet, la región enfrenta un déficit de cientos de miles de profesionales en ciberseguridad, mientras que más del 80% de las organizaciones ya sufrió al menos un ataque en el último año. La mayoría reconoce que la falta de capacitación es una de las principales causas de estas brechas.
Últimas Noticias
El Pentágono apuesta por la IA y acuerda con Elon Musk usar Grok en sistemas clasificados
La transición deja atrás el monopolio de Claude, modelo desarrollado por Anthropic, tras un enfrentamiento por las condiciones de uso exigidas por el departamento militar

Filtran el primer título gratuito de PlayStation Plus: llegará en marzo de 2026
La elección de PGA Tour 2K25 como principal novedad no ha generado unanimidad entre los jugadores de PlayStation 5 y PlayStation 4

Hacker se hospedó en hoteles de lujo pagando un céntimo la noche: cómo lo hizo
El sujeto, ya detenido en Madrid, usó un sofisticado fraude informático que alteraba el sistema de pagos de una web de reservas

Cómo resolver fallos de conexión Bluetooth en dispositivos Apple
Antes de buscar ayuda avanzada, la compañía recomienda una serie de acciones básicas para resolver las dificultades más comunes de conexión
La IA dispara la velocidad de los ciberataques: cuatro veces más rápido
El uso de la inteligencia artificial permite que los adversarios reduzcan el tiempo desde el acceso inicial hasta la exfiltración de datos



