
La revolución de la inteligencia artificial (IA) se perfila como la fuerza capaz de transformar la economía global, pero su futuro estará condicionado por un factor: la confianza.
Durante el Foro Económico Mundial de Davos, se pudo identificar que el avance de la IA implica riesgos emergentes que trascienden los marcos tradicionales de la ciberseguridad.
Jonathan Zanger, director de tecnología de Check Point Software, advierte que el enorme potencial para generar valor económico podría quedar comprometido si las organizaciones no logran construir entornos de IA transparentes y resilientes. “Materializar el enorme potencial económico de la IA depende de una implementación responsable y una confianza verificable”.

El especialista asegura que el alcance de la IA no conoce barreras sectoriales: “La IA está transformando la forma en que las industrias operan, compiten y crean valor a una velocidad sin precedentes. Para 2030, se proyecta que añadirá casi 20 billones de dólares al PIB mundial, consolidando su posición como una de las fuerzas económicas más poderosas de nuestro siglo”.
“Están surgiendo a una velocidad mayor de la que la mayoría de las organizaciones están preparadas para detectar y defenderse”, afirmó, al referirse a amenazas relacionadas con la manipulación del lenguaje que las máquinas interpretan. Los ciberdelincuentes, como explica, ya no requieren vulnerar códigos o redes; bastan las instrucciones camufladas en el lenguaje y los datos para distorsionar los sistemas de IA y alterar su lógica interna.
Este tipo de ataque resulta extremadamente difícil de identificar con protocolos tradicionales de seguridad: “Dado que estos ataques se producen en lenguaje natural, las herramientas de seguridad tradicionales rara vez los identifican. El modelo se ve afectado en su origen, mucho antes de que alguien se dé cuenta de que algo anda mal”.

La inquietud central es que, cuando un modelo de IA es comprometido, “se comporta como una amenaza interna”. Puede operar sin levantar sospechas, filtrando información, alterando recomendaciones o desviando resultados, mientras continúa ofreciendo respuestas y procesando datos, aunque de manera sutilmente desalineada.
Frente a este desafío, Zanger subraya la urgencia de que el sector empresarial evolucione su enfoque: “Lo que estamos observando ahora es un cambio en el riesgo empresarial: de la protección de datos a la protección del conocimiento”. El epicentro del debate de gobernanza ya no es quién utiliza la IA, sino qué han absorbido los modelos y cuál es el origen de sus datos.
Cómo construir ecosistemas de IA confiables
Para construir ecosistemas de IA confiables, el experto define como imprescindible un modelo de “confianza cero”. En su opinión, esto implica ir más allá de los métodos clásicos de control de acceso: “No confiar en nada. Verificar todo, continuamente”, recalcó Zanger. La vigilancia debe incluir tanto los datos como las instrucciones empleadas para entrenar los sistemas, además de integrar criterios de trazabilidad y rendición de cuentas en cada fase del ciclo de vida de la IA.

Este enfoque se alinea con el avance de iniciativas internacionales, añade Zanger, quien destaca el “Marco de Riesgos y Seguridad de la IA de la OCDE, publicado en 2025, e iniciativas internacionales similares reconocen la manipulación de datos y el uso indebido de la IA como áreas críticas que exigen estándares y supervisión compartidos”.
A futuro, la frontera de la ciberseguridad migrará desde la defensa de redes hacia la defensa de la semántica: “La próxima era de la ciberseguridad se definirá no por la defensa de los sistemas, sino por la defensa de la semántica”. Proteger el lenguaje, la base sobre la que se sustentan los algoritmos inteligentes, será el nuevo terreno estratégico. La “confianza definirá la próxima frontera de la innovación”, posicionando a las organizaciones y países que la adopten como actores clave no solo en competitividad, sino en responsabilidad compartida ante el mundo.
Últimas Noticias
Cómo hacer que tu Smart TV sea más fluida y eficiente
Mantener el sistema operativo al día es una de las acciones más directas para mejorar la fluidez de la TV

Por qué algunas personas explican todo lo que hacen en su vida cotidiana, según la IA
La primera razón que destaca Gemini tiene raíz emocional y se relaciona con los mecanismos de defensa

Estudio de Harvard revela que la inteligencia artificial está dejando a los trabajadores mentalmente fatigados
Expertos recomiendan rediseñar los procesos de automatización, priorizando la transparencia y la formación, para proteger la salud mental de los trabajadores

A modo de protesta, miles de escritores publican un libro vacío para que la IA no robe su contenido
Los autores se manifiestan en contra del uso no autorizado de sus textos en el entrenamiento de inteligencia artificial



