Anuncios publicados en canales de Telegram han ofrecido empleos dirigidos a personas de Europa del Este, América Latina, norte de África y Asia central para desempeñarse como “modelos de IA” en videollamadas. Estas oportunidades, según detalla Wired, suelen dirigirse a individuos con experiencia laboral previa en países como Camboya, Dubái o Birmania, principalmente en sectores asociados a la gestión de mercados estadounidenses, incluyendo criptomonedas y comercio de oro, áreas con alta incidencia de fraudes digitales. En muchos casos, quienes aceptan estas ofertas cuentan con residencia en esas zonas, lo que facilita su reclutamiento por organizaciones criminales dedicadas al cibercrimen.
Según informó Wired, el aumento de la profesionalización del fraude digital mediante inteligencia artificial ha llevado a que los denominados “deepfakes” se conviertan en una herramienta principal en este tipo de engaños. Los criminales detrás de estas operaciones emplean modelos humanos, principalmente mujeres jóvenes, para establecer contacto con potenciales víctimas a través de plataformas sociales como Facebook e Instagram, con el objetivo de crear un vínculo emocional que desemboque en solicitudes de dinero, lo que se conoce como estafas amorosas.
De acuerdo con el investigador de ciberdelincuencia Hieu Minh Ngo, de la ONG vietnamita ChongLuaDao, las organizaciones criminales proporcionan el software necesario para que los modelos puedan suplantar identidades mediante el uso de inteligencia artificial y ejecutar de manera creíble estos fraudes durante videollamadas. Ngo destaca que antes de aceptar una oferta de este tipo, es fundamental analizar tanto el propósito real del uso de la inteligencia artificial como la procedencia geográfica de la empresa o el anuncio, puesto que la solicitud de conocimientos de idiomas como el chino suele ser una pista frecuente.
El medio Wired reportó que las condiciones laborales de estas “modelos de IA” resultan muchas veces abusivas. Las jornadas de trabajo pueden extenderse hasta las doce horas, exigiendo la realización de entre cien y ciento cincuenta videollamadas diarias. Algunos anuncios revisados advierten además que el pasaporte de los trabajadores será retenido para la gestión de visados o permisos, lo que ha derivado en casos de robo de documentos con el fin de controlar a los empleados y restringir su movilidad.
Humanity Research Consultancy, una organización centrada en la lucha contra la trata de personas, apuntó que el fenómeno se ha expandido más allá del sudeste asiático. Personas que se publicitan como modelos de IA en Telegram suelen proceder de una amplia variedad de regiones y, en ocasiones, esperan recibir salarios de hasta 7.000 dólares mensuales (unos 6.071 euros). No obstante, también solicitan condiciones específicas, como disponer de habitación propia, visitas a sus domicilios en días libres o acceso a una lavadora personal.
La cofundadora de la ONG EOS, Ling Li, indicó que algunas “modelos de IA” han experimentado mejores condiciones que quienes son víctimas directas de redes de trata, aunque no están exentas de situaciones de abuso. Testimonios recogidos por Wired refieren episodios de maltrato físico y acoso sexual, incluso en casos donde la participación de las modelos en estas actividades podría considerarse voluntaria. “Una víctima europea nos contó que vio a algunas modelos italianas en su edificio, pero no puede saber si estaban allí voluntariamente o no porque las golpearon delante de él”, relató Ling Li al medio.
Wired también informó que, aunque envió a Telegram una lista con veinticuatro canales donde se ofrecían empleos para este tipo de actividades, la empresa todavía no ha eliminado estos espacios. Según la declaración de un portavoz de Telegram al medio, el contenido que fomenta o facilita las estafas está terminantemente prohibido y se elimina una vez detectado. Sin embargo, la plataforma agregó que en ciertas circunstancias pueden existir razones legítimas por las cuales una persona decide ceder su imagen, por lo que optan por examinar este tipo de contenidos caso por caso.
El uso de deepfakes en las videollamadas ha incrementado el éxito de estos fraudes, al proporcionar una simulación realista mediante manipulación de imágenes, video y audio basada en inteligencia artificial. Esta tecnología facilita la suplantación de identidad en tiempo real durante las llamadas, un recurso clave cuando las víctimas exigen pruebas de autenticidad, como una videollamada en directo con la supuesta persona interesada. Así, los perpetradores logran mantener la ilusión de ser reales y evitan levantar sospechas mientras avanzan en su intento de estafa.
Entre los requisitos listados en las ofertas de trabajo, aparecen conocimientos de idiomas y experiencia en áreas relacionadas con mercados sensibles a fraudes. La retención de pasaportes y las condiciones laborales poco claras evocan prácticas asociadas a la trata de personas, aunque en este caso se enmascaran bajo una falsa fachada de trabajos tecnológicos o de representación virtual. Grupos de derechos humanos, según detalló Wired, han advertido sobre el riesgo de que estos esquemas de empleo deriven en situaciones de explotación laboral y privaciones de derechos, incluso en ausencia de una coacción explícita.
Diversas ONG consultadas por Wired han observado que el fenómeno puede adaptarse y expandirse rápidamente por la naturaleza transfronteriza de las plataformas y el reclutamiento digital. El anonimato y la dificultad para rastrear tanto a los empleadores como a los empleados complican la actuación de autoridades y organizaciones de protección. Por ahora, los mecanismos de identificación y denuncia en plataformas como Telegram dependen en gran medida del reporte ciudadano y de la interpretación de sus equipos internos, quienes evalúan cada caso individualmente antes de proceder a la eliminación de contenidos o canales.
El impacto de estas operaciones afecta tanto a las víctimas de las estafas como a quienes trabajan bajo la figura de “modelos de IA” en condiciones restrictivas. La combinación de tecnologías avanzadas, tácticas de suplantación y entornos de trabajo controlados permite que las redes criminales refuercen la efectividad de sus acciones y dificulten su persecución, de acuerdo con los hallazgos presentados por Wired y las organizaciones consultadas.
Últimas Noticias
Seúl dice que la controversia entre su presidente e Israel se resolvió sin disputa oficial
Las autoridades chilenas dan diez días a Kast para explicar su almuerzo en La Moneda con excompañeros de carrera

Trump insiste en que la OTAN no apoyó a EE.UU. en Irán y que tampoco lo hará en el futuro
Japón y Polonia forjan una asociación estratégica con foco en defensa y seguridad
Milei declara que le "repugna" la inflación de marzo pero rechaza cambiar su modelo
