OpenAI revela los usos indebidos de ChatGPT: desde abogados falsos hasta estafa de citas

La empresa detalla cómo actores maliciosos han explotado el modelo para manipular políticamente, realizar estafas románticas y suplantaciones de identidad

Guardar
OpenAI identificó y bloqueó cuentas
OpenAI identificó y bloqueó cuentas vinculadas a operaciones de influencia y ciberdelitos con ChatGPT. (Reuters)

OpenAI publicó un informe en el que revela cómo actores maliciosos han intentado aprovechar ChatGPT para actividades ilícitas y campañas de desinformación en diversos continentes. La compañía detalló la manera en que detectó y bloqueó cuentas vinculadas a operaciones de influencia, estafas románticas y suplantaciones de identidad, subrayando la necesidad de fortalecer los controles sobre el uso de modelos de inteligencia artificial.

Campañas de influencia y operaciones encubiertas

El informe de OpenAI destaca el uso de ChatGPT por parte de cuentas asociadas a la policía china y a individuos involucrados en campañas de manipulación política. Uno de los casos más relevantes fue la identificación y bloqueo de una cuenta vinculada a un individuo relacionado con las fuerzas del orden chinas, que buscaba orquestar una operación de influencia dirigida contra la primera ministra japonesa, Sanae Takaichi.

La campaña, según OpenAI, pretendía desprestigiar a la mandataria tras sus críticas públicas a la situación de los derechos humanos en Mongolia.

El informe detalla campañas coordinadas
El informe detalla campañas coordinadas desde China para atacar a figuras políticas y suprimir la disidencia. (AP)

Las cuentas emplearon ChatGPT para obtener información sobre personas estadounidenses, foros en línea y ubicaciones de edificios federales, además de solicitar asistencia para el uso de software de intercambio de rostros. También se generaron correos electrónicos en inglés dirigidos a funcionarios estatales y analistas del sector financiero para invitarlos a consultas pagadas.

OpenAI resaltó la escala y sofisticación de estas operaciones, que involucraron cientos de empleados, miles de cuentas falsas y el uso conjunto de modelos de IA locales como DeepSeek y Qwen, además de ChatGPT. La compañía señaló que las tácticas incluyeron desde la suplantación de identidad y la falsificación de documentos hasta denuncias abusivas y publicaciones masivas para reprimir disidencia y silenciar críticos en el ámbito digital y fuera de él.

Estafas románticas y fraudes en línea

El informe también revela cómo estafadores han intentado usar ChatGPT para ejecutar modernas estafas románticas, especialmente en Asia. Una operación, identificada como originaria de Camboya y dirigida a hombres indonesios interesados en contenido de lujo, empleó el chatbot para crear logotipos y material promocional de un falso servicio de citas, generar imágenes de mujeres ficticias y asesorar a los propios delincuentes en materia fiscal.

Estafadores usaron ChatGPT para crear
Estafadores usaron ChatGPT para crear perfiles falsos y ejecutar estafas románticas dirigidas a víctimas en Asia. (Reuters)

El modus operandi consistía en captar a las víctimas a través de anuncios, permitirles elegir entre perfiles falsos y entablar conversaciones con un supuesto recepcionista virtual. Posteriormente, los estafadores transferían la interacción a Telegram, donde humanos asistidos por ChatGPT mantenían el contacto utilizando lenguaje romántico y sexualmente explícito, dirigiendo a las víctimas a servicios de citas fraudulentos.

Las personas eran inducidas a realizar una serie de “misiones” o tareas que requerían pagos crecientes mediante transferencias bancarias o monederos digitales. OpenAI estima que esta estrategia podría estar defraudando a cientos de víctimas cada mes.

Suplantación de identidad y falsificación profesional

Otra modalidad de uso indebido detectada por OpenAI involucra la suplantación de bufetes de abogados y fuerzas del orden estadounidenses. Los estafadores utilizaron ChatGPT para generar tarjetas de membresía falsas del Colegio de Abogados del Estado de Nueva York y crear contenido en redes sociales destinado a dar credibilidad a la estafa. El objetivo era engañar a víctimas de fraude contactándolas como si se tratara de representantes legales o agentes oficiales.

ChatGPT fue empleado para generar
ChatGPT fue empleado para generar documentos falsos y suplantar a abogados y agentes estadounidenses. (Bloomberg)

OpenAI afirmó que ChatGPT se negó a colaborar en la planificación de la operación encubierta contra la primera ministra japonesa, pero que los usuarios insistieron en utilizar el modelo para perfeccionar informes de estado sobre la misma campaña, lo que demuestra la persistencia de los actores maliciosos.

El informe concluye que la represión y manipulación digital transnacional se ha industrializado, combinando tecnologías avanzadas y tácticas tradicionales en una escala sin precedentes. OpenAI subraya la importancia de monitorear y restringir el mal uso de sus modelos para evitar que sean empleados en campañas de desinformación, fraudes y suplantaciones de identidad.