
SAN FRANCISCO -- Anthropic dijo a finales del año pasado que hackers chinos patrocinados por el Estado habían utilizado su tecnología de inteligencia artificial para intentar infiltrarse en los sistemas informáticos de unas 30 empresas y organismos gubernamentales de todo el mundo.
En una entrada de blog, Anthropic dijo que se trataba del primer caso conocido de un ciberataque en el que las tecnologías de IA habían recopilado información confidencial con una ayuda limitada por parte de operadores humanos. Según la empresa, los hackers humanos se encargaron de entre el 10 y el 20 por ciento del trabajo necesario para llevar a cabo el ataque.
Cinco meses después, ese sigue siendo el único ejemplo conocido de un ciberataque impulsado en gran medida por un "agente de IA", una tecnología capaz de escribir código informático y utilizar software por sí misma. Pero mientras Anthropic y su principal rival, OpenAI, se preparan para lanzar nuevos y más potentes sistemas de IA, los expertos en ciberseguridad se muestran cada vez más contundentes en sus advertencias: la IA está cambiando radicalmente la ciberseguridad.
La tecnología de Anthropic, OpenAI, Google y otras empresas podría permitir a los hackers identificar brechas de seguridad en los sistemas informáticos mucho más rápido que en el pasado, lo que eleva en gran medida lo que está en juego en la lucha de décadas entre los hackers y los expertos en seguridad que protegen las redes informáticas.
Sin embargo, al igual que otras herramientas de la larga historia de la ciberseguridad, la IA más reciente puede utilizarse tanto para atacar como para defenderse. Mientras los hackers utilizan la IA para irrumpir y robar, los expertos en seguridad también recurren a la IA para detectar fallos en sus sistemas, incluidos algunos que habían pasado desapercibidos durante décadas. La pregunta es quién encuentra los fallos primero.
"Este es el mayor cambio que ha habido en el entorno cibernético en la historia", dijo Francis deSouza, director de operaciones y presidente de productos de seguridad de Google Cloud. "Hay que combatir la IA con IA".
Desde el año pasado, los principales proyectos de software de código abierto --que proporcionan la infraestructura subyacente para sitios y servicios en internet-- se han visto inundados de mensajes de personas que utilizan la IA para identificar brechas de seguridad.
Muchos de estos informes de errores estaban equivocados, debido a fallos cometidos por los sistemas de IA. Sin embargo, en los últimos meses, a medida que la IA ha mejorado, han comenzado a identificar errores legítimos a un ritmo notable, y los programadores se han apresurado a realizar las correcciones.
"Estos modelos de IA están ampliando lo que los humanos pueden hacer", comentó Daniel Stenberg, que dirige un importante y popular proyecto de código abierto llamado Curl. "Si se utilizan estas herramientas correctamente, pueden aumentar realmente la capacidad de detectar problemas en el software".
En febrero, Anthropic dijo que había utilizado su tecnología de IA para detectar más de 500 de las llamadas vulnerabilidades del día cero --brechas de seguridad desconocidos para los fabricantes de software-- en diversas piezas de software de código abierto de uso común. Al mes siguiente, un investigador de Anthropic reveló que había utilizado la IA para detectar una grave vulnerabilidad de seguridad en el núcleo del sistema operativo Linux, el software que impulsa gran parte de internet y que se utiliza en servidores informáticos, servicios de computación en la nube, teléfonos Android y vehículos Tesla.
Al parecer, el fallo existía desde 2003 sin haber sido descubierto.
Los expertos discrepan sobre si una de las partes de esta lucha ha obtenido una ventaja significativa gracias a la IA. No están seguros de cómo se desarrollará la batalla en los próximos años. No obstante, la mayoría coincide en que las empresas y los gobiernos que no adopten la IA más avanzada con fines defensivos se expondrán a una enorme vulnerabilidad.
Los chatbots como Claude de Anthropic y GPT de OpenAI se han vuelto muy buenos escribiendo código informático. Estos sistemas pueden ayudar a los ingenieros a crear nuevo software. Pueden utilizar herramientas de internet, como programas de correo electrónico y calendarios en línea. Y pueden sondear los puntos débiles del software y los servicios en línea para buscar vulnerabilidades de seguridad.
En los últimos meses, nuevas herramientas de IA como Claude Code de Anthropic y Codex de OpenAI --diseñadas específicamente para la programación-- han ayudado a los desarrolladores a crear agentes de IA capaces de gestionar una amplia variedad de tareas de forma prácticamente autónoma. Esto incluye identificar y explotar brechas de seguridad en el software.
"Hace cuatro o cinco meses, se produjo un cambio radical en lo que estos sistemas podían hacer", aseguró Zico Kolter, miembro del consejo de administración de OpenAI y profesor de informática en la Universidad Carnegie Mellon, especializado en seguridad e IA.
La IA está ayudando a los atacantes de otras maneras. Algunos han utilizado chatbots para redactar correos electrónicos de phishing y notas de rescate, según los expertos en ciberseguridad. Otros han utilizado la IA para analizar grandes cantidades de datos robados y determinar qué información podría ser valiosa. Sin la ayuda de la IA, los atacantes a veces podían irrumpir en redes informáticas en cuestión de minutos, dijo deSouza, pero con la ayuda de la IA, las brechas pueden producirse apenas en unos segundos.
Algunos hackers se especializan en irrumpir en sistemas y luego vender su acceso a otros atacantes. Esas transferencias solían tardar hasta ocho horas, ya que los hackers negociaban las ventas y transmitían los puntos de entrada comprometidos, dijo deSouza. Ahora ese proceso se ha acelerado a unos 20 segundos, afirmó, y los hackers a veces utilizan agentes de IA para agilizarlo.
Anthropic, OpenAI y otras empresas de IA han intentado añadir medidas de seguridad a sus herramientas para evitar que se conviertan en armas cibernéticas. Pero los atacantes han sido capaces de eludir estas barreras diciéndole a los sistemas de IA que en realidad no están atacando.
Por ejemplo, dirán que solo están jugando a "capturar la bandera", ejercicios de ciberseguridad que simulan ataques reales y permiten a los ingenieros practicar la detección y el aprovechamiento de vulnerabilidades.
Algunos expertos sostienen que las medidas de seguridad añadidas por empresas como Anthropic y OpenAI pueden, en realidad, proporcionar una ventaja a los atacantes maliciosos. Argumentan que estas medidas podrían hacer que un chatbot denegara ayuda a un usuario que intentara defender un sistema de un ataque, pero que los hackers persistentes podrían ser más diligentes a la hora de encontrar vulnerabilidades, y guardarse esos trucos para sí mismos.
"Claude está diseñado con sólidas medidas de seguridad para evitar el uso indebido de nuestros modelos", señaló mediante un comunicado Paruul Maheshwary, portavoz de Anthropic. "A medida que las barreras para llevar a cabo ciberataques sofisticados siguen reduciéndose, creemos que estas protecciones son esenciales para evitar que la IA se utilice como herramienta para los atacantes".
Aunque las tecnologías de IA han puesto nuevos poderes en manos de los hackers ofensivos, los expertos están divididos sobre si estas herramientas dan a los atacantes una ventaja general sobre los defensores.
Incluso tras meses de mejoras constantes, las tecnologías de IA siguen teniendo fallos, lo que significa que requieren la experiencia de expertos en ciberseguridad con amplia trayectoria. En muchos casos, las herramientas siguen estando limitadas por las habilidades de las personas que las utilizan.
"Sigue siendo necesario contar con un arquitecto de software en el proceso con estos sistemas", afirmó Kolter.
Él y otros sostienen que los defensores tienen ventaja porque su trabajo es más sencillo. Solo tienen que encontrar las brechas. Los hackers ofensivos deben tanto encontrar como aprovechar las brechas.
"Es más fácil encontrar una vulnerabilidad que explotarla de forma significativa", dijo Kolter.
(El New York Times demandó a OpenAI y Microsoft en 2023 por infracción de derechos de autor de contenidos informativos relacionados con sistemas de IA. Las dos empresas han negado esas acusaciones).
Anthropic desencadenó otra ronda de debate en la comunidad de ciberseguridad el mes pasado cuando Fortune informó que la empresa había publicado inadvertidamente el contenido de una entrada de blog en la que se describía un sistema de IA que aún no ha sido lanzado. La entrada de blog dijo que la tecnología representaba otro "cambio radical" en el rendimiento de la IA.
A raíz de la filtración de la entrada del blog, Nikesh Arora, director ejecutivo de la empresa de ciberseguridad Palo Alto Networks, publicó su propia entrada en la que advertía a las empresas y a los gobiernos que deben adoptar las herramientas más recientes.
"La capacidad de identificar vulnerabilidades va a ser mucho mejor de lo que hemos visto hasta ahora", dijo en una entrevista. "Tenemos que prepararnos para solucionar estos problemas".
ChatGPT de OpenAI en una computadora portátil en San Francisco, 21 de marzo de 2025. (Kelsey McClellan/The New York Times)
Últimas Noticias
La propuesta de 10 puntos de Irán exige el fin de los ataques y las sanciones
Reportajes Especiales - News

Shelly Kittleson, periodista de EE. UU. secuestrada en Irak, es liberada
Reportajes Especiales - News

En las primeras fotos del sobrevuelo lunar de la NASA están la Tierra y un eclipse
Reportajes Especiales - News

Hegseth compara el rescate de un aviador de EE. UU. con la resurrección de Jesús
Reportajes Especiales - News

Trump lanza serias amenazas a Irán mientras se vence el plazo para Ormuz
Reportajes Especiales - News


