
La irrupción de la inteligencia artificial en el ámbito de la ciberseguridad sumó un nuevo capítulo con el uso de Claude, el chatbot desarrollado por Anthropic, en una campaña de robo de datos a agencias gubernamentales en México.
Según reportó Bloomberg, un atacante logró explotar las capacidades del sistema para obtener información confidencial sobre impuestos y registros de votantes mediante instrucciones personalizadas que burlaron los filtros de seguridad de la plataforma.
El incidente, ocurrido entre diciembre de 2023 y enero de 2024, puso en evidencia el potencial de la inteligencia artificial como herramienta para ataques sofisticados y el desafío que enfrentan los desarrolladores para anticipar y bloquear usos maliciosos.
Un ataque coordinado con IA: así operó el hacker en México
La investigación, realizada por la firma israelí Gambit Security, identificó que el hacker utilizó Claude para redactar scripts informáticos, detectar vulnerabilidades y automatizar el acceso a redes de distintos organismos públicos. El objetivo, según la empresa, fue extraer datos de la autoridad fiscal federal mexicana, el Instituto Nacional Electoral y gobiernos estatales como Jalisco, Michoacán y Tamaulipas, además de sistemas municipales y el servicio de agua de Monterrey.

El atacante instruyó a Claude en español para que actuara como un experto en ciberataques, adaptando el lenguaje y las solicitudes hasta que el sistema accedió a ejecutar miles de comandos en las redes oficiales.
Fueron sustraídos 150 gigabytes de información, incluyendo 195 millones de registros de contribuyentes y padrones electorales, según la documentación consultada. La investigación señala que el atacante consiguió sortear las advertencias iniciales del chatbot y logró “liberar” el sistema después de insistir con distintas tácticas, una técnica conocida como jailbreak.
Anthropic confirmó que interrumpió la actividad maliciosa y bloqueó las cuentas implicadas tras recibir la alerta. Además, la empresa afirmó que incorporó los patrones detectados en sus bases de entrenamiento para reforzar las barreras de seguridad en versiones futuras del modelo, como Claude Opus 4.6.
Respuestas institucionales y límites de la protección digital
Las repercusiones del ataque llevaron a que varias instituciones mexicanas emitieran comunicados sobre la situación. El Instituto Nacional Electoral negó haber detectado vulneraciones recientes y aseguró que reforzó su estrategia de ciberseguridad. El gobierno de Jalisco descartó afectaciones en sus sistemas y atribuyó el problema a redes federales. Mientras tanto, la autoridad fiscal federal y otros organismos locales no respondieron de forma inmediata a las consultas.
El informe de Gambit Security destaca que el atacante buscaba obtener identidades de empleados públicos y explotó al menos 20 vulnerabilidades específicas. A medida que Claude encontraba obstáculos, el hacker complementaba la información recurriendo a ChatGPT de OpenAI para obtener detalles adicionales sobre movimientos laterales en redes y credenciales necesarias para acceder a sistemas restringidos.
Según explicó Curtis Simpson, director de estrategia de Gambit Security, la inteligencia artificial permitió al atacante producir “miles de informes detallados que incluían planes listos para ejecutar”, facilitando la elección de objetivos y el uso de credenciales.
Riesgos crecientes y desafíos para la inteligencia artificial
El caso mexicano se suma a una tendencia global en la que la inteligencia artificial se convierte tanto en un recurso para la protección digital como en un vector para ataques complejos. Tanto Anthropic como OpenAI informaron que detectaron y bloquearon cuentas usadas para violar sus políticas, incluidas actividades ilícitas como el robo de datos o la manipulación de sistemas.
La investigación de Gambit Security reveló que el atacante evadió las barreras de seguridad de Claude simulando participar en programas de recompensas por errores, lo que permitió burlar controles y ejecutar pruebas de penetración en sistemas oficiales. Cuando el chatbot detectó solicitudes anómalas, el operador insistió y modificó la estrategia, logrando finalmente eludir las restricciones.

El incidente coincide con una etapa de expansión de las herramientas de IA en el ámbito de la ciberseguridad, donde empresas buscan fortalecer defensas basadas en inteligencia artificial al mismo tiempo que delincuentes y espías desarrollan métodos para aprovechar la tecnología en actividades ilícitas.
La rápida respuesta de Anthropic y la colaboración con firmas de seguridad como Gambit Security ilustran la importancia de adaptarse a amenazas dinámicas y de fortalecer los sistemas frente a la persistencia de los atacantes. Mientras tanto, la explotación de la inteligencia artificial en ataques contra agencias gubernamentales plantea interrogantes sobre los límites de la protección digital y la necesidad de protocolos más robustos.
Últimas Noticias
Pagos digitales en Meta: la empresa evalúa integrar stablecoins después del revés de Libra
Stripe aparece como uno de los candidatos más probables para liderar el piloto de la nueva cartera digital de Meta
Así bloquean Google y OpenAi la creación de imágenes prohibidas tras la crisis de Grok
Tras el escándalo de la plataforma de Elon Musk, las grandes tecnológicas revisan y endurecen sus mecanismos para combatir la generación y difusión de material sexual no consentido con IA

Anthropic desafía al Pentágono y rechaza relajar límites para uso militar de su IA
La startup de inteligencia artificial fue advertida de que, si no accedía a las exigencias, podría ser considerada un riesgo para la cadena de suministro

Alguien te bloqueó en WhatsApp y no lo sabes: sigue estos pasos para averiguarlo
La integración de opciones avanzadas en los ajustes de privacidad y la verificación del cifrado facilitan restringir o restaurar contactos

Stripe pone la mira en PayPal y explora una adquisición histórica
La fintech estadounidense mantiene conversaciones preliminares para comprar parte o la totalidad de la plataforma global de pagos en línea


