OpenAI alertó que hackers de China e Irán usan ChatGPT para realizar ciberataques contra otros países

La empresa confirmó más de 20 de casos en que la herramienta se utilizó para desarrollar malware y lanzar ataques de phishing. Expertos advierten que este es solo el comienzo de una nueva era de amenazas cibernéticas potenciadas por inteligencia artificial

Guardar
Google icon
Un empleado de ciberseguridad de la escuadra volante de París 2024 gestiona un ciberataque simulado (REUTERS/Stephanie Lecocq/archivo)
Un empleado de ciberseguridad de la escuadra volante de París 2024 gestiona un ciberataque simulado (REUTERS/Stephanie Lecocq/archivo)

OpenAI idenfiticó a más de 20 ataques cibernéticos y de manipulación recientes que involucraron el uso de su modelo de inteligencia artificial (IA) generativa con fines maliciosos, según un informe publicado este mes. El reporte expone cómo actores estatales, incluidos hackers vinculados a China, Irán y Rusia, han utilizado herramientas como ChatGPT para desarrollar malware, ejecutar ataques de phishing y llevar a cabo campañas de desinformación en redes sociales.

El grupo SweetSpecter, con sede en China, fue uno de los actores destacados en el informe. Este grupo ejecutó ataques de spear-phishing dirigidos contra gobiernos asiáticos y personal de OpenAI. En uno de los casos, los atacantes enviaron correos electrónicos que simulaban problemas con servicios de ChatGPT e incluían archivos ZIP con malware oculto, conocido como “SugarGh0st RAT”. Si el archivo era abierto, el malware tomaba control del dispositivo afectado, permitiendo a los atacantes ejecutar comandos y robar datos sin ser detectados.

PUBLICIDAD

Por otro lado, CyberAv3ngers, un grupo vinculado a la Guardia Revolucionaria Islámica de Irán, utilizó ChatGPT para explorar vulnerabilidades en sistemas industriales y hackear equipos de control de agua en Estados Unidos e Irlanda. En noviembre de 2023, lograron interrumpir temporalmente el suministro de agua en la localidad de Aliquippa, Pensilvania. En otro incidente, causaron un apagón de dos días en servicios hídricos en el condado de Mayo, Irlanda. Las investigaciones revelaron que los atacantes se apoyaron en herramientas de IA para diseñar y refinar scripts maliciosos.

Asimismo, STORM-0817, otro grupo iraní, centró sus esfuerzos en el desarrollo de malware dirigido a dispositivos Android. Su software permitía extraer información confidencial, como registros de llamadas, contactos y archivos de mensajería. El grupo también buscó asistencia en ChatGPT para depurar códigos y perfeccionar técnicas de raspado de datos de redes sociales como Instagram, lo que revela cómo los modelos de IA están siendo integrados en múltiples fases de ataques complejos.

PUBLICIDAD

Hossein Salami, Comandante de la Guardia Revolucionaria iraní. Un grupo vinculado a esta fuerza del régimen persa usó ChatGPT para hackear equipos de control de agua en Estados Unidos e Irlanda  (Majid Asgaripour/WANA/Reuters)
Hossein Salami, Comandante de la Guardia Revolucionaria iraní. Un grupo vinculado a esta fuerza del régimen persa usó ChatGPT para hackear equipos de control de agua en Estados Unidos e Irlanda (Majid Asgaripour/WANA/Reuters)

Uso para manipulación y desinformación

El informe no solo documenta ataques cibernéticos, sino también campañas de influencia basadas en la generación de contenido con IA.

La operación conocida como A2Z es un ejemplo de cómo se pueden gestionar campañas de desinformación a gran escala mediante ChatGPT. Este grupo utilizó el modelo para crear biografías y comentarios en varias lenguas, los cuales fueron publicados en plataformas como X (anteriormente Twitter) y Facebook. Los mensajes en inglés e italiano, por ejemplo, promovían la imagen de Azerbaiyán como proveedor clave de energía para Europa y minimizaban las críticas sobre su historial de derechos humanos.

Las herramientas de inteligencia artificial han facilitado a estos grupos la ejecución de ataques más rápidos y eficientes (REUTERS/Dado Ruvic/Illustration/archivo)
Las herramientas de inteligencia artificial han facilitado a estos grupos la ejecución de ataques más rápidos y eficientes (REUTERS/Dado Ruvic/Illustration/archivo)

Otra operación denominada Stop News, de origen ruso, utilizó ChatGPT para producir artículos y comentarios en inglés, francés y ruso. El grupo creó una serie de sitios web que simulaban ser medios de comunicación en África y el Reino Unido, aunque la mayoría de sus publicaciones no alcanzó gran repercusión. Además, acompañaron los artículos con imágenes generadas por DALL·E, una herramienta generativa de OpenAI, aunque estas tampoco lograron atraer una audiencia significativa.

Un incidente inusual documentado en el informe fue un engaño vinculado a trolls rusos. En este caso, los operadores difundieron un mensaje falso en X que aparentaba ser un error generado por ChatGPT al intentar apoyar contenido favorable al ex presidente estadounidense Donald Trump. La publicación ganó tracción en redes sociales y se viralizó rápidamente, lo que, según el informe, refleja cómo la desinformación puede amplificarse incluso cuando no proviene directamente de la IA

Optimizar la capacidad operativa de los hackers

Aunque las investigaciones de OpenAI concluyen que los actores maliciosos no lograron desarrollar variantes completamente nuevas de malware mediante IA, el informe subraya que las herramientas de inteligencia artificial han facilitado a estos grupos la ejecución de ataques más rápidos y eficientes. Los modelos de IA, como ChatGPT, fueron particularmente útiles para realizar tareas intermedias, como la depuración de códigos y la elaboración de correos maliciosos, lo que optimizó la capacidad operativa de los atacantes sin necesidad de desarrollar conocimientos técnicos avanzados.

seguridad digital, protección en línea, tecnología segura, ciberprotección, manejo de datos, dispositivos conectados, navegación segura. - (Imagen Ilustrativa Infobae)
La combinación de herramientas de IA con técnicas tradicionales plantea un desafío significativo para la industria de la ciberseguridad, según el informe de OpenIA. (Imagen Ilustrativa Infobae)

El informe subraya que la combinación de herramientas de IA con técnicas tradicionales plantea un desafío significativo para la industria de la ciberseguridad. Los modelos de lenguaje permiten a los atacantes reducir tiempos de desarrollo, identificar vulnerabilidades de forma más precisa y diseñar campañas de phishing más personalizadas, incrementando el potencial de daño.

Medidas de prevención

En respuesta a estas amenazas, OpenAI dijo que ha fortalecido sus protocolos de seguridad y ha creado equipos especializados en la detección y prevención de usos maliciosos de sus modelos. La empresa también está trabajando en colaboración con otras compañías tecnológicas y organizaciones gubernamentales para compartir información sobre amenazas emergentes y coordinar acciones preventivas. “La cooperación es esencial para anticipar riesgos y garantizar que nuestras herramientas se utilicen con fines positivos”, señaló OpenAI en el informe.

El documento destaca que la industria tecnológica debe adoptar una postura proactiva ante estos desafíos. “No es solo responsabilidad de OpenAI”, advierte el informe, instando a las otras empresas de inteligencia artificial generativa a implementar medidas de seguridad efectivas. Esto incluye la creación de algoritmos más robustos capaces de detectar y bloquear actividades maliciosas antes de que se conviertan en amenazas reales.

EL INFORME COMPLETO:

PUBLICIDAD

PUBLICIDAD

Últimas Noticias

Donald Trump llega a China para reunirse con Xi Jinping en medio de tensiones comerciales y la guerra contra Irán

El mandatario republicano afirmó antes de partir desde Washington que mantendrá una “larga conversación” con el líder chino y adelantó que buscará que Beijing abra su mercado a las empresas estadounidenses

Donald Trump llega a China para reunirse con Xi Jinping en medio de tensiones comerciales y la guerra contra Irán

Bahréin condenó a cadena perpetua a dos espías y a una colaboradora de la Guardia Revolucionaria de Irán

Las pesquisas revelaron que los implicados participaron en actividades relacionadas con financiación, espionaje y transmisión de datos confidenciales al cuerpo militar del régimen, en una operación que también les representó multas y el decomiso de bienes

Bahréin condenó a cadena perpetua a dos espías y a una colaboradora de la Guardia Revolucionaria de Irán

Australia anunció que se sumará a las misiones de Francia y Reino Unido para proteger la navegación en el estrecho de Ormuz

El ministro de Defensa australiano, Richard Marles, confirmó que su país está dispuesto a apoyar la operación “estrictamente defensiva” en Medio Oriente, liderada por París y Londres

Australia anunció que se sumará a las misiones de Francia y Reino Unido para proteger la navegación en el estrecho de Ormuz

Scott Bessent se reúne en Seúl con una delegación china para retomar las negociaciones comerciales antes del encuentro entre Trump y Xi

La agencia estatal china Xinhua confirmó que las delegaciones de China y de Estados Unidos, encabezada por el secretario del Tesoro Scott Bessent, iniciaron las conversaciones en el aeropuerto internacional de Incheon, aunque no difundió detalles sobre la agenda ni la duración de los encuentros

Scott Bessent se reúne en Seúl con una delegación china para retomar las negociaciones comerciales antes del encuentro entre Trump y Xi

Quiénes son los magnates tecnológicos y empresarios que acompañan a Donald Trump en su visita oficial a China

Elon Musk, Tim Cook, Jensen Huang y Larry Fink, entre otros empresarios, viajan a bordo del Air Force One rumbo a Beijing junto al presidente de Estados Unidos, quien aseguró que en su encuentro con Xi Jinping abordará principalmente temas comerciales

Quiénes son los magnates tecnológicos y empresarios que acompañan a Donald Trump en su visita oficial a China
MÁS NOTICIAS