IA-gentes criminales

El cibercrimen organizado adopta a la inteligencia artificial para ejecutar ataques a gran escala sin intervención humana

Guardar
El uso de IA en
El uso de IA en ciberdefensa será clave para mitigar amenazas, evaluar vulnerabilidades y responder a incidentes eficientemente

Existe un punto de inflexión en el panorama del cibercrimen organizado y en las necesidades de desarrollo de habilidades y estrategias de ciberseguridad. Un punto en el que los modelos de IA se están convirtiendo en un componente crítico y un recurso realmente útil y determinante para la gestión de operaciones de ciberseguridad, para bien o para mal. Sí, emplear agentes para la ciberdefensa es una imperiosa necesidad, pero lamentablemente la industria del cibercrimen ha decidido transitar el mismo camino. Ya existen ciberataques reales en los que los delincuentes utilizan capacidades de IA para ampliar su alcance, mejorar la velocidad de ejecución y operar a gran escala. Esta nueva realidad hace un uso intensivo de “agentes” de IA a un nivel sin precedentes, utilizándolos no solo como herramientas consultivas, educativas o de asesoramiento, sino también como brazo ejecutor de los ataques.

Distintas industrias son un blanco apetecible, pero las preferidas siguen siendo las grandes empresas tecnológicas, instituciones financieras, compañías de energía y agencias gubernamentales. Por primera vez existen indicios contundentes de ciberataques a gran escala sin una intervención humana necesaria en su ejecución. Esta nueva era de ciberatacantes representados por “agentes de IA” no tiene antecedentes, ni existen por el momento formas de mitigación o identificación temprana. Pueden operar de manera autónoma durante largos períodos y realizar tareas complejas prácticamente sin intervención humana.

Los últimos dos años han sido vertiginosos en términos de desarrollo de IA. La irrupción de agentes de IA en procesos rutinarios de la vida cotidiana se ha vuelto valiosa para la productividad y el trabajo diario; sin embargo, nos enfrentamos a un umbral preocupante: en manos equivocadas, estas herramientas pueden convertirse en un acelerador de la capacidad de ejecutar ciberataques de gran escala.

La potencia de los modelos de aprendizaje ha aumentado hasta el punto de permitirles seguir instrucciones complejas y comprender el contexto de modo tal que pueden ejecutar tareas altamente sofisticadas, como programar o codificar software. Los agentes pueden funcionar en bucles autónomos, encadenando tareas y tomando decisiones con una mínima intervención humana ocasional.

Además, tienen acceso a una amplia gama de herramientas de software de apoyo, pueden buscar información en la web, recuperar datos y ejecutar acciones que antes eran exclusivas de operadores humanos. Estas herramientas pueden incluir craqueadores de contraseñas o escáneres de red.

Convencer a una IA de participar en un ataque también es posible, más allá de que su configuración intente impedir comportamientos dañinos. Técnicas de jailbreak pueden engañarla para eludir sus restricciones de seguridad, relevar sistemas, redes e infraestructuras, identificar vulnerabilidades e incluso recopilar nombres de usuario y contraseñas que permitan acceder a información adicional o detectar cuentas con privilegios elevados. Un ataque ejecutado por una IA se produciría a una velocidad imposible de igualar por hackers humanos. Aunque parezca irreal -y levemente reconfortante-, afortunadamente muchas IA aún fallan o “alucinan”, lo que ofrece una mínima ventaja; al menos por ahora.

Estas mismas capacidades de automatización de ataques deberán utilizarse para concebir nuevos modelos de ciberdefensa, mitigación de amenazas, evaluación de vulnerabilidades y respuesta a incidentes. En la práctica, el enorme volumen de información que se debe analizar para detectar un incidente a tiempo convierte a la IA en un aliado estratégico inigualable.