Las empresas tecnológicas y de negocios en España estiman que solo logran detectar, como máximo, el 40 por ciento de los comportamientos maliciosos vinculados a la inteligencia artificial dentro de sus organizaciones, lo que deja una gran cantidad de actividades potencialmente perjudiciales sin identificar. Esta situación revela un margen de invisibilidad que, según el informe elaborado por TrendAI, implica un importante riesgo estructural para las entidades que incorporan esta tecnología en sus operaciones principales. El problema radica en que la automatización de ataques y la evolución de técnicas de fraude mediante el uso de IA por parte de ciberdelincuentes superan la capacidad de respuesta y supervisión de muchas compañías. En este contexto, la noticia central del último estudio global de TrendAI muestra la diferencia de percepción entre directivos y responsables tecnológicos respecto a la confianza en los marcos legales y de gobernanza sobre la inteligencia artificial, así como los retos de visibilidad y seguridad derivados de la rápida adopción de esta tecnología.
Según detalla TrendAI, la confianza en los marcos regulatorios de IA es considerablemente superior entre los especialistas tecnológicos —49 por ciento— que entre los directivos de negocio —32 por ciento—, lo que evidencia una división clara sobre la percepción del riesgo y la seguridad jurídica. El medio destaca que la integración de sistemas basados en inteligencia artificial en empresas españolas va por delante de la implantación de mecanismos efectivos de control y gobernanza, generando un entorno desafiante para quienes deben tomar decisiones sobre su uso responsable.
El informe, titulado 'Cómo proteger la empresa impulsada por la IA: deficiencias en la gobernanza, retos de visibilidad y aumento del riesgo', publicado por TrendAI, recoge estas diferencias entre los ITDM (Information Technology Decision Makers) y los BDM (Business Decision Makers) tras analizar el grado de confianza que depositan en las normativas y pautas que rigen el uso de inteligencia artificial. Destaca que los marcos legales buscan favorecer un uso diligente y seguro de la IA, pero entre directivos y responsables tecnológicos se produce una brecha: los primeros consideran que la normativa actual resulta insuficiente, mientras los segundos ven mayor protección en su implementación.
TrendAI revela que tanto los directivos de negocio como los de tecnología reconocen que solo detectan, de media, entre el 21 y el 40 por ciento del comportamiento malicioso asociado a la IA, señal que la mayoría de estas acciones quedan fuera del radar corporativo. La compañía sostiene que este nivel de invisibilidad se traduce en un incremento del riesgo, ya que los ciberdelincuentes han multiplicado los ataques automatizados, refinado la ingeniería social y ampliado las campañas de fraude gracias a la inteligencia artificial. El medio advierte sobre la urgencia de mejorar las capacidades de detección y gestión, insistiendo en que una supervisión inadecuada puede derivar en consecuencias adversas para la seguridad empresarial.
El documento de TrendAI también resalta la presión interna existente dentro de las organizaciones para aprobar y desplegar soluciones de IA, incluso cuando no se han evaluado completamente los riesgos asociados a la ciberseguridad. Tanto los responsables tecnológicos como los ejecutivos de negocio han reportado esta presión, lo que señala la necesidad de robustecer los procesos de evaluación y validación antes de cualquier implementación. Según publicó TrendAI, la compañía enfatiza que una evaluación rigurosa de riesgos debería preceder todo despliegue de nuevas tecnologías para reducir la exposición a amenazas no detectadas.
Pese a las discrepancias en materia de confianza y gobernanza, el informe identifica un consenso entre los distintos perfiles sobre el valor estratégico de la inteligencia artificial para la defensa digital. El 71 por ciento de los responsables de tecnología y el 57 por ciento de los directivos de negocio consideran que la IA se ha convertido en una herramienta fundamental en la estrategia de defensa contra las amenazas, especialmente porque los ciberataques actuales también emplean esta tecnología para potenciar su letalidad y sofisticación.
“Responder a ataques cada vez más automatizados y dinámicos requiere añadir capacidades avanzadas de detección y respuesta fundamentadas en aprendizaje automático y análisis predictivo”, indica TrendAI en su informe. Esta declaración subraya la necesidad de que las empresas doten sus sistemas defensivos de capacidades equivalentes a las de los atacantes para mitigar los efectos de la inteligencia artificial empleada con fines maliciosos.
En términos de visibilidad interna sobre la implementación de IA, el informe señala que el 83 por ciento de los responsables tecnológicos manifiestan tener una visión alta o total de cómo se emplea la inteligencia artificial en sus compañías, contraponiéndose al 57 por ciento de los directivos de negocio que consideran que disponen del mismo nivel de visibilidad. TrendAI recalca que esta diferencia apunta a necesidades de mejora en la comunicación y la transparencia dentro de las organizaciones, recomendando una coordinación más estrecha entre departamentos y una actualización constante de las políticas de uso y acceso para los empleados.
Respecto a la formación en inteligencia artificial, el estudio muestra que los equipos de tecnología lideran en capacitación: el 33 por ciento de los ITDM han recibido formación específica en IA, frente al 23 por ciento de los BDM. Esta diferencia en el nivel de preparación contribuye a la brecha en la confianza y en la percepción de los riesgos, ya que una mayor formación parece asociarse a una interpretación más favorable sobre la eficacia de los controles regulatorios y técnicos.
A pesar del avance en la adopción de inteligencia artificial, TrendAI puntualiza que la mayoría de las empresas en España continúan en una fase de implementación parcial. La gobernanza de la IA aún no se integra completamente en la cultura corporativa ni se formaliza como una política transversal consolidada en la gestión empresarial. El Country Manager de TrendAI en Iberia, Antonio Abellán, declaró que las compañías perciben la inteligencia artificial como un elemento transformador, pero subrayó la importancia de no limitarse a su adopción, sino exigir criterios exigentes de seguridad, cumplimiento normativo y una monitorización continua. “No se trata solo de adoptar IA, sino de hacerlo con criterios sólidos de seguridad, cumplimiento normativo y supervisión continua”, afirmó Abellán, según reportó el medio.
TrendAI presentó los resultados del estudio en plena transformación de su rol empresarial y señaló que el aumento exponencial de la inteligencia artificial ha llevado a considerarla una “infraestructura fundamental” en la gestión empresarial, asignando al riesgo de ciberdelincuencia la categoría de prioridad estratégica. De acuerdo con TrendAI, el año 2026 marcará un punto crítico para la consolidación de modelos de gobernanza de IA en España, proyecto que concilia la innovación digital con el refuerzo de la ciberseguridad y la resiliencia corporativa frente a posibles amenazas derivadas del uso de inteligencia artificial.
Últimas Noticias
Irán autoriza el paso de 20 barcos paquistaníes por Ormuz en un gesto de confianza
La petrolera estatal taiwanesa anuncia nueva subida de precios por guerra en Oriente Medio
Una ONG denuncia 43 asesinatos a personas que buscaban a desaparecidos en México desde 2010
Al menos 43 familiares de desaparecidos han sido ultimados o no se sabe su paradero desde 2010 en territorio mexicano, advierte Artículo 19, quien denuncia desprotección estatal y riesgos crecientes para quienes exigen justicia y verdad
