La inteligencia artificial entra en su fase clave: crecimiento económico, confianza y responsabilidad

En el marco del Foro Económico Mundial de Davos, líderes políticos y tecnológicos coincidieron en que la IA debe construirse con confianza y ética

Guardar
Un grupo diverso de profesionales
Un grupo diverso de profesionales y ejecutivos observa y discute gráficos y datos digitales proyectados, mientras figuras de robots y elementos tecnológicos sugieren la integración de la inteligencia artificial en los procesos empresariales. La imagen ilustra la colaboración entre humanos y tecnología en la toma de decisiones estratégicas para el futuro económico. (Imagen Ilustrativa Infobae)

La revolución de la inteligencia artificial (IA) se perfila como la fuerza capaz de transformar la economía global, pero su futuro estará condicionado por un factor: la confianza.

Durante el Foro Económico Mundial de Davos, se pudo identificar que el avance de la IA implica riesgos emergentes que trascienden los marcos tradicionales de la ciberseguridad.

Jonathan Zanger, director de tecnología de Check Point Software, advierte que el enorme potencial para generar valor económico podría quedar comprometido si las organizaciones no logran construir entornos de IA transparentes y resilientes. “Materializar el enorme potencial económico de la IA depende de una implementación responsable y una confianza verificable”.

El avance de la inteligencia
El avance de la inteligencia artificial crea nuevas amenazas de ciberseguridad, especialmente vulnerabilidades asociadas a la manipulación del lenguaje natural. (Imagen Ilustrativa Infobae)

El especialista asegura que el alcance de la IA no conoce barreras sectoriales: “La IA está transformando la forma en que las industrias operan, compiten y crean valor a una velocidad sin precedentes. Para 2030, se proyecta que añadirá casi 20 billones de dólares al PIB mundial, consolidando su posición como una de las fuerzas económicas más poderosas de nuestro siglo”.

Están surgiendo a una velocidad mayor de la que la mayoría de las organizaciones están preparadas para detectar y defenderse”, afirmó, al referirse a amenazas relacionadas con la manipulación del lenguaje que las máquinas interpretan. Los ciberdelincuentes, como explica, ya no requieren vulnerar códigos o redes; bastan las instrucciones camufladas en el lenguaje y los datos para distorsionar los sistemas de IA y alterar su lógica interna.

Este tipo de ataque resulta extremadamente difícil de identificar con protocolos tradicionales de seguridad: “Dado que estos ataques se producen en lenguaje natural, las herramientas de seguridad tradicionales rara vez los identifican. El modelo se ve afectado en su origen, mucho antes de que alguien se dé cuenta de que algo anda mal”.

Los ataques basados en instrucciones
Los ataques basados en instrucciones ocultas en el lenguaje pasan desapercibidos por los sistemas tradicionales de ciberseguridad, afectando el origen de los modelos de IA. -(Imagen Ilustrativa Infobae)

La inquietud central es que, cuando un modelo de IA es comprometido, “se comporta como una amenaza interna”. Puede operar sin levantar sospechas, filtrando información, alterando recomendaciones o desviando resultados, mientras continúa ofreciendo respuestas y procesando datos, aunque de manera sutilmente desalineada.

Frente a este desafío, Zanger subraya la urgencia de que el sector empresarial evolucione su enfoque: “Lo que estamos observando ahora es un cambio en el riesgo empresarial: de la protección de datos a la protección del conocimiento”. El epicentro del debate de gobernanza ya no es quién utiliza la IA, sino qué han absorbido los modelos y cuál es el origen de sus datos.

Cómo construir ecosistemas de IA confiables

Para construir ecosistemas de IA confiables, el experto define como imprescindible un modelo de “confianza cero”. En su opinión, esto implica ir más allá de los métodos clásicos de control de acceso: “No confiar en nada. Verificar todo, continuamente”, recalcó Zanger. La vigilancia debe incluir tanto los datos como las instrucciones empleadas para entrenar los sistemas, además de integrar criterios de trazabilidad y rendición de cuentas en cada fase del ciclo de vida de la IA.

El modelo de confianza cero
El modelo de confianza cero y la trazabilidad en la inteligencia artificial se posicionan como claves ante marcos regulatorios internacionales y la protección de la semántica digital. (Imagen Ilustrativa Infobae)

Este enfoque se alinea con el avance de iniciativas internacionales, añade Zanger, quien destaca el “Marco de Riesgos y Seguridad de la IA de la OCDE, publicado en 2025, e iniciativas internacionales similares reconocen la manipulación de datos y el uso indebido de la IA como áreas críticas que exigen estándares y supervisión compartidos”.

A futuro, la frontera de la ciberseguridad migrará desde la defensa de redes hacia la defensa de la semántica: La próxima era de la ciberseguridad se definirá no por la defensa de los sistemas, sino por la defensa de la semántica”. Proteger el lenguaje, la base sobre la que se sustentan los algoritmos inteligentes, será el nuevo terreno estratégico. La “confianza definirá la próxima frontera de la innovación”, posicionando a las organizaciones y países que la adopten como actores clave no solo en competitividad, sino en responsabilidad compartida ante el mundo.