
OpenAI publicó un informe en el que revela cómo actores maliciosos han intentado aprovechar ChatGPT para actividades ilícitas y campañas de desinformación en diversos continentes. La compañía detalló la manera en que detectó y bloqueó cuentas vinculadas a operaciones de influencia, estafas románticas y suplantaciones de identidad, subrayando la necesidad de fortalecer los controles sobre el uso de modelos de inteligencia artificial.
Campañas de influencia y operaciones encubiertas
El informe de OpenAI destaca el uso de ChatGPT por parte de cuentas asociadas a la policía china y a individuos involucrados en campañas de manipulación política. Uno de los casos más relevantes fue la identificación y bloqueo de una cuenta vinculada a un individuo relacionado con las fuerzas del orden chinas, que buscaba orquestar una operación de influencia dirigida contra la primera ministra japonesa, Sanae Takaichi.
La campaña, según OpenAI, pretendía desprestigiar a la mandataria tras sus críticas públicas a la situación de los derechos humanos en Mongolia.

Las cuentas emplearon ChatGPT para obtener información sobre personas estadounidenses, foros en línea y ubicaciones de edificios federales, además de solicitar asistencia para el uso de software de intercambio de rostros. También se generaron correos electrónicos en inglés dirigidos a funcionarios estatales y analistas del sector financiero para invitarlos a consultas pagadas.
OpenAI resaltó la escala y sofisticación de estas operaciones, que involucraron cientos de empleados, miles de cuentas falsas y el uso conjunto de modelos de IA locales como DeepSeek y Qwen, además de ChatGPT. La compañía señaló que las tácticas incluyeron desde la suplantación de identidad y la falsificación de documentos hasta denuncias abusivas y publicaciones masivas para reprimir disidencia y silenciar críticos en el ámbito digital y fuera de él.
Estafas románticas y fraudes en línea
El informe también revela cómo estafadores han intentado usar ChatGPT para ejecutar modernas estafas románticas, especialmente en Asia. Una operación, identificada como originaria de Camboya y dirigida a hombres indonesios interesados en contenido de lujo, empleó el chatbot para crear logotipos y material promocional de un falso servicio de citas, generar imágenes de mujeres ficticias y asesorar a los propios delincuentes en materia fiscal.
El modus operandi consistía en captar a las víctimas a través de anuncios, permitirles elegir entre perfiles falsos y entablar conversaciones con un supuesto recepcionista virtual. Posteriormente, los estafadores transferían la interacción a Telegram, donde humanos asistidos por ChatGPT mantenían el contacto utilizando lenguaje romántico y sexualmente explícito, dirigiendo a las víctimas a servicios de citas fraudulentos.
Las personas eran inducidas a realizar una serie de “misiones” o tareas que requerían pagos crecientes mediante transferencias bancarias o monederos digitales. OpenAI estima que esta estrategia podría estar defraudando a cientos de víctimas cada mes.
Suplantación de identidad y falsificación profesional
Otra modalidad de uso indebido detectada por OpenAI involucra la suplantación de bufetes de abogados y fuerzas del orden estadounidenses. Los estafadores utilizaron ChatGPT para generar tarjetas de membresía falsas del Colegio de Abogados del Estado de Nueva York y crear contenido en redes sociales destinado a dar credibilidad a la estafa. El objetivo era engañar a víctimas de fraude contactándolas como si se tratara de representantes legales o agentes oficiales.

OpenAI afirmó que ChatGPT se negó a colaborar en la planificación de la operación encubierta contra la primera ministra japonesa, pero que los usuarios insistieron en utilizar el modelo para perfeccionar informes de estado sobre la misma campaña, lo que demuestra la persistencia de los actores maliciosos.
El informe concluye que la represión y manipulación digital transnacional se ha industrializado, combinando tecnologías avanzadas y tácticas tradicionales en una escala sin precedentes. OpenAI subraya la importancia de monitorear y restringir el mal uso de sus modelos para evitar que sean empleados en campañas de desinformación, fraudes y suplantaciones de identidad.
Últimas Noticias
OPPO A6 Pro 5G a prueba: resistencia y batería destacadas, pero la cámara
Este celular, perteneciente a la línea accesible de la marca, incorpora funciones de edición fotográfica con inteligencia artificial, como el borrador de objetos y la apertura de ojos cerrados en retratos

¿Gemini supera a Siri?: el nuevo modo agéntico controla tus apps y automatiza tareas
La IA podrá tomar el control de las aplicaciones y realizar acciones complejas por el usuario, como hacer pedidos en apps de delivery

Nubank, el banco digital más grande de América, alcanza los 131 millones de clientes
La expansión acelerada de la plataforma se apoya en avances tecnológicos como modelos inteligentes para crédito y mejores prácticas operativas
Apple cambia las reglas para los menores de edad: aplica para iPhone, iPad y Mac
Los usuarios que no cumplen con la edad mínima establecida para una app no podrán descargarla desde la App Store

Así es la última actualización de Windows 11: nuevo test de velocidad, mejor rendimiento y más
La nueva actualización KB5077241 llega con mejoras y nuevas funciones que optimizan la experiencia y la seguridad para todos los usuarios


