Google alertó que los ciberataques impulsados por inteligencia artificial han pasado en solo tres meses de ser un problema incipiente a representar una amenaza a escala industrial. Esta advertencia, contenida en un informe reciente del grupo de inteligencia de amenazas de la compañía, subraya la rapidez con la que los modelos de IA más avanzados han transformado el panorama de la ciberseguridad global.
En solo tres meses, los ciberataques impulsados por inteligencia artificial han evolucionado de ser una preocupación incipiente a constituir una amenaza industrial, según el documento, que advierte también que los modelos de IA avanzados permiten a los atacantes identificar vulnerabilidades, diseñar códigos maliciosos y ejecutar operaciones de mayor complejidad y persistencia.
Los nuevos modelos de IA, en manos de grupos criminales y actores estatales
El informe revela que tanto grupos criminales organizados como actores vinculados a gobiernos de China, Corea del Norte y Rusia están utilizando modelos comerciales de IA como Gemini, Claude y herramientas desarrolladas por OpenAI para perfeccionar y escalar sus ataques. Estas herramientas permiten identificar vulnerabilidades, diseñar códigos maliciosos y ejecutar operaciones más sofisticadas y persistentes.
PUBLICIDAD
John Hultquist, principal analista del grupo de amenazas de Google, afirmó a The Guardian: “Existe la idea equivocada de que la carrera por vulnerabilidades con IA es algo inminente. La realidad es que ya ha comenzado”. Según Hultquist, los atacantes utilizan la inteligencia artificial para aumentar la velocidad, el alcance y la complejidad de sus ofensivas, lo que les permite probar sus operaciones, crear malware más eficiente y mejorar otros aspectos de sus campañas.
Casos recientes: vulnerabilidades y modelos peligrosos
El auge de la IA en ciberseguridad no solo ha facilitado el trabajo de los hackers, sino que también ha obligado a algunas empresas a extremar precauciones. Anthropic, una compañía destacada del sector, decidió no lanzar uno de sus modelos más recientes, Mythos, tras concluir que sus capacidades eran tan potentes que suponían un riesgo para gobiernos, instituciones financieras y, en general, para la seguridad global si caía en manos equivocadas.
Anthropic informó que Mythos había encontrado vulnerabilidades de tipo “zero-day” en todos los principales sistemas operativos y navegadores web. Estas fallas, desconocidas hasta su descubrimiento, requerían una acción defensiva coordinada en toda la industria para evitar un posible desastre.
PUBLICIDAD
El informe de Google también detectó que un grupo criminal estuvo a punto de explotar una vulnerabilidad “zero-day” para llevar a cabo una campaña de ataque masivo con la ayuda de un modelo de lenguaje grande (LLM) distinto de Mythos. Además, se documentó que varias organizaciones ilícitas han estado experimentando con OpenClaw, una herramienta viral que permite delegar grandes porciones de la vida digital a un agente de IA sin restricciones, con la capacidad peligrosa de eliminar masivamente correos electrónicos.
La creciente sofisticación de las herramientas de IA plantea un dilema: si bien pueden utilizarse para atacar, también ofrecen ventajas a los equipos defensivos. Steven Murdoch, profesor de ingeniería de seguridad en la University College London, sostuvo que la inteligencia artificial puede beneficiar tanto a los hackers como a quienes defienden los sistemas. “Ya no se trata de descubrir errores como antes; ahora todo será asistido por modelos de lenguaje. Faltan por verse las verdaderas consecuencias de este cambio”, afirmó.
El debate sobre la productividad y los riesgos económicos
El informe de Google se suma a la discusión mundial sobre el verdadero impacto de la IA, no solo en la ciberseguridad, sino también en la eficiencia económica. El Ada Lovelace Institute (ALI), un organismo independiente de investigación en IA, ha advertido sobre las expectativas poco realistas acerca de los beneficios económicos de la IA en el sector público.
PUBLICIDAD
El gobierno del Reino Unido ha estimado que la inversión en inteligencia artificial podría generar ahorros y mejoras de productividad equivalentes a 45 mil millones de libras, pero el ALI señala que muchos de estos cálculos se basan en supuestos no comprobados y metodologías limitadas.
El análisis del instituto destaca que la mayoría de los estudios sobre IA y productividad se centran en ahorros de tiempo o costos, sin considerar si la calidad de los servicios o el bienestar de los trabajadores realmente mejora. También advierte que las proyecciones suelen ignorar las diferencias en el impacto de la IA según las tareas y no contemplan los efectos sobre el empleo y la prestación de servicios públicos.