Hacker usa la IA Claude para robar datos de agencias de gobierno en México

El uso avanzado de la plataforma de Anthropic permitió a un atacante sortear filtros, automatizar scripts y extraer millones de registros confidenciales de organismos oficiales

Guardar
La plataforma de inteligencia artificial
La plataforma de inteligencia artificial permitió automatizar ataques que comprometieron datos fiscales y electorales en México. (Imagen Ilustrativa Infobae)

La irrupción de la inteligencia artificial en el ámbito de la ciberseguridad sumó un nuevo capítulo con el uso de Claude, el chatbot desarrollado por Anthropic, en una campaña de robo de datos a agencias gubernamentales en México.

Según reportó Bloomberg, un atacante logró explotar las capacidades del sistema para obtener información confidencial sobre impuestos y registros de votantes mediante instrucciones personalizadas que burlaron los filtros de seguridad de la plataforma.

El incidente, ocurrido entre diciembre de 2023 y enero de 2024, puso en evidencia el potencial de la inteligencia artificial como herramienta para ataques sofisticados y el desafío que enfrentan los desarrolladores para anticipar y bloquear usos maliciosos.

Un ataque coordinado con IA: así operó el hacker en México

La investigación, realizada por la firma israelí Gambit Security, identificó que el hacker utilizó Claude para redactar scripts informáticos, detectar vulnerabilidades y automatizar el acceso a redes de distintos organismos públicos. El objetivo, según la empresa, fue extraer datos de la autoridad fiscal federal mexicana, el Instituto Nacional Electoral y gobiernos estatales como Jalisco, Michoacán y Tamaulipas, además de sistemas municipales y el servicio de agua de Monterrey.

Claude, el chatbot de Anthropic,
Claude, el chatbot de Anthropic, fue manipulado mediante técnicas avanzadas para ejecutar comandos y facilitar el robo de información gubernamental en México. (Europa Press)

El atacante instruyó a Claude en español para que actuara como un experto en ciberataques, adaptando el lenguaje y las solicitudes hasta que el sistema accedió a ejecutar miles de comandos en las redes oficiales.

Fueron sustraídos 150 gigabytes de información, incluyendo 195 millones de registros de contribuyentes y padrones electorales, según la documentación consultada. La investigación señala que el atacante consiguió sortear las advertencias iniciales del chatbot y logró “liberar” el sistema después de insistir con distintas tácticas, una técnica conocida como jailbreak.

Anthropic confirmó que interrumpió la actividad maliciosa y bloqueó las cuentas implicadas tras recibir la alerta. Además, la empresa afirmó que incorporó los patrones detectados en sus bases de entrenamiento para reforzar las barreras de seguridad en versiones futuras del modelo, como Claude Opus 4.6.

Respuestas institucionales y límites de la protección digital

Las repercusiones del ataque llevaron a que varias instituciones mexicanas emitieran comunicados sobre la situación. El Instituto Nacional Electoral negó haber detectado vulneraciones recientes y aseguró que reforzó su estrategia de ciberseguridad. El gobierno de Jalisco descartó afectaciones en sus sistemas y atribuyó el problema a redes federales. Mientras tanto, la autoridad fiscal federal y otros organismos locales no respondieron de forma inmediata a las consultas.

El atacante también recurrió a
El atacante también recurrió a ChatGPT para obtener información adicional y perfeccionar sus métodos de intrusión en redes oficiales mexicanas. (Reuters)

El informe de Gambit Security destaca que el atacante buscaba obtener identidades de empleados públicos y explotó al menos 20 vulnerabilidades específicas. A medida que Claude encontraba obstáculos, el hacker complementaba la información recurriendo a ChatGPT de OpenAI para obtener detalles adicionales sobre movimientos laterales en redes y credenciales necesarias para acceder a sistemas restringidos.

Según explicó Curtis Simpson, director de estrategia de Gambit Security, la inteligencia artificial permitió al atacante producir “miles de informes detallados que incluían planes listos para ejecutar”, facilitando la elección de objetivos y el uso de credenciales.

Riesgos crecientes y desafíos para la inteligencia artificial

El caso mexicano se suma a una tendencia global en la que la inteligencia artificial se convierte tanto en un recurso para la protección digital como en un vector para ataques complejos. Tanto Anthropic como OpenAI informaron que detectaron y bloquearon cuentas usadas para violar sus políticas, incluidas actividades ilícitas como el robo de datos o la manipulación de sistemas.

La investigación de Gambit Security reveló que el atacante evadió las barreras de seguridad de Claude simulando participar en programas de recompensas por errores, lo que permitió burlar controles y ejecutar pruebas de penetración en sistemas oficiales. Cuando el chatbot detectó solicitudes anómalas, el operador insistió y modificó la estrategia, logrando finalmente eludir las restricciones.

El caso revela cómo la
El caso revela cómo la inteligencia artificial puede ser usada tanto para proteger como para vulnerar sistemas críticos. (Imagen Ilustrativa Infobae)

El incidente coincide con una etapa de expansión de las herramientas de IA en el ámbito de la ciberseguridad, donde empresas buscan fortalecer defensas basadas en inteligencia artificial al mismo tiempo que delincuentes y espías desarrollan métodos para aprovechar la tecnología en actividades ilícitas.

La rápida respuesta de Anthropic y la colaboración con firmas de seguridad como Gambit Security ilustran la importancia de adaptarse a amenazas dinámicas y de fortalecer los sistemas frente a la persistencia de los atacantes. Mientras tanto, la explotación de la inteligencia artificial en ataques contra agencias gubernamentales plantea interrogantes sobre los límites de la protección digital y la necesidad de protocolos más robustos.