Suplantaron a MrBeast con IA y le robaron 14.000 dólares a una mujer en Canadá

La proliferación de videos, audios y mensajes manipulados con IA ha facilitado fraudes sofisticados, donde los usuarios pueden perder grandes sumas de dinero creyendo interactuar con figuras públicas

Google icon
MrBeast y Brad Pitt, víctimas de suplantación digital en fraudes potenciados por IA (Prime Video)

La revolución de la inteligencia artificial está transformando la forma en que se producen fraudes digitales, con consecuencias cada vez más graves para las víctimas.

Esta semana, una mujer de Guelph, Ontario, perdió 14.000 dólares tras caer en una estafa que utilizó la imagen y la voz de MrBeast, uno de los youtubers más populares del mundo, generadas mediante IA. El caso destaca el peligro creciente de los deepfakes y pone sobre la mesa la urgencia de adoptar nuevas medidas de protección frente a la suplantación digital.

El uso de inteligencia artificial para crear videos y audios realistas facilita que los estafadores suplanten a celebridades con una credibilidad nunca antes vista. El engaño no solo afecta a figuras públicas: cualquier usuario puede convertirse en objetivo, especialmente si no reconoce los signos de manipulación digital en anuncios, mensajes o llamadas telefónicas.

PUBLICIDAD

El caso de MrBeast: estafa con deepfake y criptomonedas

Casos recientes revelan cómo la inteligencia artificial permite clonar la imagen y la voz de celebridades para engañar y manipular a usuarios, evidenciando el avance de la ingeniería social en el entorno digital - (Imagen Ilustrativa Infobae)

Todo comenzó cuando la víctima hizo clic en un anuncio de redes sociales que promocionaba una supuesta oportunidad de inversión en criptomonedas, aparentemente respaldada por MrBeast.

Tras un primer pago de 250 dólares, la mujer recibió una llamada telefónica de alguien que replicó la voz y el estilo del creador de contenido, convenciéndola de depositar hasta 5.000 dólares adicionales en una billetera de criptomonedas. El fraude se intensificó hasta que la suma total alcanzó los 14.000 dólares.

La policía de Guelph advirtió sobre la proliferación de anuncios de productos financieros respaldados por celebridades y recordó que la IA facilita la falsificación de rostros y voces. La recomendación es desconfiar de cualquier comunicación que exija acciones inmediatas y verificar siempre la autenticidad de las propuestas financieras.

PUBLICIDAD

MrBeast, cuyo nombre real es Jimmy Donaldson, ha enfrentado numerosos intentos de suplantación mediante deepfakes desde 2023. Él mismo denunció públicamente el uso fraudulento de su imagen en anuncios, calificando el problema como “grave” y difícil de contener.

No solo MrBeast: el caso Brad Pitt y el fraude emocional con IA

El aumento de estafas basadas en inteligencia artificial impulsa nuevas regulaciones y advertencias, mientras especialistas instan a reforzar la verificación y la educación digital para evitar daños económicos y emocionales - SONY PICTURES

La sofisticación de los deepfakes no se limita a las inversiones. El caso de Anne, una diseñadora de interiores francesa, revela cómo la IA también puede usarse para suplantar la identidad de celebridades en estafas afectivas. Tras separarse, Anne creyó mantener una relación virtual con Brad Pitt durante 18 meses. Los estafadores emplearon imágenes y videos generados por IA, chats manipulados y hasta llamadas que imitaban la voz del actor.

Le solicitaron dinero para supuestos tratamientos médicos y problemas legales, llevándola a transferir todos sus ahorros, cerca de 800.000 dólares.

La manipulación fue tan efectiva que Anne ignoró las advertencias de su entorno y continuó creyendo en la veracidad del vínculo hasta que los medios confirmaron públicamente la relación del verdadero Brad Pitt con otra persona. El daño fue no solo económico, también emocional, mostrando cómo la IA puede amplificar el alcance y el impacto de las estafas de ingeniería social.

El auge de los deepfakes: riesgos y cómo protegerse

Las tecnologías de clonación de voz, generación de imágenes y video deepfake han reducido la barrera técnica para los estafadores, que ahora pueden crear campañas altamente personalizadas y convincentes.

Desde inversiones falsas hasta romances inventados, las víctimas pueden ser engañadas a través de cualquier canal digital: redes sociales, llamadas telefónicas, mensajes de texto o correos electrónicos.

Entre las señales de alerta más importantes están las propuestas que requieren acciones urgentes, la presión emocional, los errores en el idioma, la falta de canales oficiales de contacto y la exigencia de pagos por métodos poco rastreables como criptomonedas. Los especialistas recomiendan:

  • Verificar siempre la identidad de quien contacta, especialmente si dice ser una figura pública.
  • Desconfiar de ofertas financieras, sorteos o historias sentimentales que implican transferencias de dinero.
  • Consultar fuentes oficiales y buscar antecedentes de fraudes similares antes de actuar.
  • No enviar dinero ni compartir información personal ante solicitudes inesperadas, por más creíble que parezca el interlocutor.
  • Instalar soluciones de seguridad en los dispositivos y mantenerse informado sobre nuevas modalidades de engaño.

La sofisticación alcanzada por los deepfakes obliga a usuarios y plataformas a extremar precauciones. La educación digital y la verificación de información son las mejores defensas frente a una amenaza que evoluciona con la tecnología y que, como muestran los casos de MrBeast y Brad Pitt, puede tener consecuencias devastadoras tanto económicas como personales.