
Los cibercriminales utilizan el modelo de lenguaje grande GPT, de OpenAI, para crear 'sotfware' malicioso con el apoyo de la inteligencia artificial (IA), pese a las limitaciones integradas por la compañía tecnológica, así como para crear y difundir contenidos en redes sociales.
OpenAI ha interrumpido más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos. A ello se unen actividades como la redacción de publicaciones para redes sociales y depurar 'malware', y que la compañía recoge en la actualización del informe 'Influencia y operaciones cibernéticas'.
Con este análisis, OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley.
En este contexto, y a fecha de octubre de 2024, la compañía ha comprobado que los cibercriminales usan los modelos de IA "para realizar tareas en una fase específica e intermedia de actividad", esto es, después de haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, pero antes de "desplegar productos acabados", como pueden ser las publicaciones de redes sociales y los programas maliciosos.
En cualquier caso, OpenAI indica que aunque los actores maliciosos usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real, esto es, que no ha derivado en "la creación sustancial de nuevo malware ni en la creación de audiencias virales".
Sí han detectado actividad engañosa en redes sociales que alcanza una audiencia de gran tamaño, pero en estos casos, matiza, "el interés fue un engaño sobre el uso de la IA, no el uso de la IA en sí".
Uno de los casos analizados es el de SweetSpect, un grupo de amenazas de origen chino que utilizó los modelos de OpenAI "para respaldar sus operaciones cibernéticas ofensivas y al mismo tiempo realizar ataques de phishing" que dirigió contra los empleados de la compañía tecnológica, haciéndose pasar por un usuario de ChatGPT que buscaba ayuda del sorporte técnico, para infectar sus equipos y controlarlos.
Por su parte, el actor iraní STORM-0817 utilizó los modelos de IA para depurar código y obtener asistencia en la programación de un nuevo 'malware' para Android todavía en desarrollo y "relativamente rudimentario", con capacidades estándar de vigilancia. También uso ChatGPT para implementar la infraestructura de comando y control.
OpenAI también ha asegurado que, en un año en que más de 2.000 millones de personas están llamadas a participar en procesos electorales en 50 países de todo el mundo, no han observado "ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas" con el uso de sus modelos de IA.
Últimas Noticias
Imponen una multa millonaria a la ex primera ministra Yingluck Shinawatra por su programa de compra de arroz

Los precios de las gasolineras de Ballenoil en Madrid son hasta 30 céntimos más bajos que las tradicionales

La árbitra paraguaya Victoria Pazos recibió el Diploma Mundial del Juego Limpio
Victoria Pazos, árbitra y entrenadora paraguaya, fue galardonada en Budapest como símbolo del juego limpio, destacando su dedicación a la inclusión en el hockey con discapacidad intelectual
Ticketmaster afirma que los precios de las entradas de Bad Bunny no cambiaron durante la venta: "No hay tarifas ocultas"

Tirar el aceite por el fregadero puede costarte hasta 100.000 euros: dónde debes llevarlo y por qué
El vertido de aceite de cocina usado provoca sanciones de hasta 100.000 euros y daña el medio ambiente; aprende a reciclarlo adecuadamente en puntos limpios y gasolineras
