Los problemas de adoptar IA rápido y sin control: ISACA apunta a la falta de gobernanza y protocolo en empresas europeas

Solo una minoría de empresas en Europa sabe detener sistemas basados en inteligencia artificial ante fallos graves, alerta ISACA, que advierte sobre graves riesgos de seguridad y falta de protocolos claros para enfrentar incidentes digitales y rendir cuentas

Guardar

El 21 por ciento de las empresas europeas afirma que podría detener un sistema basado en inteligencia artificial ante una falla grave en menos de treinta minutos, aunque solo un 5 por ciento lo haría en aproximadamente un minuto. Esta cifra queda reflejada en el estudio AI Pulse Poll 2026 de ISACA, cuyos primeros resultados difundió el medio Europa Press, resaltando que la mayoría de las organizaciones carece de procedimientos para controlar los sistemas de IA en tiempo real ante incidentes de seguridad digital.

Según informó Europa Press, ISACA presentó estos datos en un encuentro con periodistas, mostrando que la integración acelerada de inteligencia artificial responde a una falta generalizada de gobernanza y protocolos claros en el ámbito empresarial europeo. La encuesta, que consultó a 681 profesionales de confianza digital del continente, revela que el 59 por ciento desconoce si su organización sería capaz de frenar rápidamente un sistema automatizado en caso de un incidente crítico. Esta carencia de protocolos expone a las empresas a riesgos de seguridad, aumenta la probabilidad de daños potenciales y contribuye a una brecha operativa y conductual entre el despliegue de IA y la preparación real para gestionar sus riesgos asociados.

Europa Press detalló que Pablo Ballarín, consultor de ciberseguridad en Balusian y experto de ISACA, señaló que la adopción veloz de IA dentro de las compañías ocurre sin la comprensión oportuna del funcionamiento de las herramientas que integran. Ballarín afirmó que la urgencia por incorporar IA genera desconocimiento sobre las aplicaciones tecnológicas empleadas, lo que limita la capacidad de anticipar su impacto o corregir errores importantes. Para el experto, estos hechos evidencian que se enfrenta un problema de control y gobierno, no únicamente tecnológico.

Otra preocupación destacada por ISACA es la escasa capacidad de las organizaciones para analizar e informar después de un incidente. Menos de la mitad de los encuestados, un 42 por ciento, confía en que su empresa pueda investigar y explicar eficazmente un incidente de IA ante la alta dirección. Además, solo un 11 por ciento de los profesionales se muestra completamente seguro de que su organización podría esclarecer los detalles de un fallo grave. De acuerdo con Europa Press, Ballarín subraya que este déficit de explicabilidad será incompatible con exigencias normativas emergentes, como el Reglamento de IA de la Unión Europea, que reclama estructuras de gobernanza, trazabilidad y equipos capacitados para comunicar y esclarecer decisiones tomadas por sistemas de inteligencia artificial.

Europa Press indica también que las prácticas internas agravan los riesgos y disminuyen la visibilidad en el seguimiento del uso de IA. En un tercio de las empresas, los trabajadores no están obligados a informar si han recurrido a herramientas automatizadas durante sus tareas, mientras que un 15 por ciento de los encuestados desconoce si esta obligación existe. Únicamente el 17 por ciento reporta que su empresa exige registrar el uso de IA en procesos laborales. ISACA alerta que estas lagunas dificultan identificar la procedencia de problemas y ponen en jaque la seguridad operacional y regulatoria.

El relevamiento de ISACA proporciona cifras sobre las actitudes respecto a la gobernanza y la responsabilidad. Un 20 por ciento de los encuestados no sabría identificar quién respondería en caso de daños causados por un sistema de IA, lo que señala un vacío estructural. Por otra parte, un 38 por ciento de los profesionales reconoce al Consejo de Administración o a directivos como responsables últimos. Ballarín reflexionó en el evento, citado por Europa Press, que definir la rendición de cuentas es una tarea compleja, aunque la tendencia regulatoria deposita cada vez más esa obligación en los niveles superiores de decisión organizacional.

El análisis también hace referencia a los mecanismos de supervisión humana: el 40 por ciento de las empresas representadas en la muestra confirma que las acciones propuestas por sistemas de IA requieren validación humana antes de ejecutarse. Esta supervisión, estimó ISACA, refleja cierto optimismo al respecto, aunque no mitiga por completo los desafíos relacionados con la gobernanza global de la inteligencia artificial.

De acuerdo con Europa Press, Ballarín recomendó que las empresas construyan un inventario exhaustivo que detalle todas las herramientas de inteligencia artificial en uso, identifique qué empleados las utilizan y asegure que estas aplicaciones operen en entornos controlados que resguarden la información interna. Para el consultor, la trazabilidad del uso de IA sería esencial para el funcionamiento responsable y seguro.

Chris Dimitriadis, director de Estrategia Global de ISACA, agregó durante el encuentro que la brecha entre el despliegue tecnológico y el desarrollo de gobernanza continúa ampliándose. Dimitriadis planteó la urgencia de definir responsabilidades, diseñar habilidades de respuesta ante incidentes y fomentar la visibilidad sobre los usos de IA mediante auditorías. Según el directivo, la construcción de una cultura de supervisión es prioritaria para minimizar los riesgos derivados del uso de esta tecnología.

Ballarín expresó, citado por Europa Press, que la inteligencia artificial aporta capacidades predictivas y de acción que superan las de las tecnologías de la información convencionales. Argumentó que, para contener usos no previstos y controlar riesgos de ciberseguridad, la gobernanza debe adoptar un enfoque transversal que involucre todas las áreas del negocio.

En síntesis, el estudio AI Pulse Poll 2026 de ISACA revela una adopción acelerada de inteligencia artificial en el entorno empresarial europeo, marcada por la ausencia de protocolos claros, desconocimiento sobre la gestión y la falta de estructuras de gobierno sólidas para responder a incidentes, asignar responsabilidades y cumplir con las nuevas normativas digitales.