Clonaron la voz de un empresario y estafaron en 35 millones de dólares a un banco de Emiratos Árabes

Usando la tecnología simularon le tono de un cliente recurrente del banco que tenía que hacer transferencias internacionales por ese valor

Guardar
Cualquiera que tenga grabaciones disponibles
Cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web es susceptible de que su voz sea doblada sin que lo sepa.

A inicios del 2020, el Director del banco de Emiratos Árabes Unidos recibió una llamada del que parecía ser un empresario con el que ya había tenido un contacto previo, sin sospechar que estaba siendo víctima de la estafa de un grupo de ciberdelincuentes que valiéndose de la tecnología de “voz profunda” lograron clonar la voz del cliente y hacerse con 35 millones de dólares de manera ilegal.

Así lo asegura Forbes citando el documento legal del caso, donde también se expone que el hombre detrás de la llamada dijo que su empresa estaba a punto de realizar una adquisición, por lo que necesitaba que el banco autorizara algunas transferencias por valor de 35 millones de dólares. Para ello se había contratado a Martin Zelner, un abogado que sería el encargado de coordinar las transacciones.

De acuerdo a lo pactado, el banco recibió varios correos electrónicos de Zelner y del empresario donde se confirmaba la cantidad de dinero a mover y a dónde debía enviarse. Lo legítimo que parecía el trámite dio confianza al Director del banco quién no dudó en dar luz verde a las operaciones, que más tarde confirmarían se trataba de un fraude.

La Fiscalía de Dubai, sostiene que este elaborado plan involucró al menos 17 personas quiénes repartieron el dinero robado en cuentas bancarias de diferentes países del mundo, lo que los ha llevado a buscar el apoyo de investigadores estadounidenses para rastrear al menos 400.000 dólares que ingresaron a cuentas con sede en Estados Unidos vinculadas al Centennial Bank.

Otra tendencia sería el uso
Otra tendencia sería el uso de "deepfake" en los ataques empresariales, lo que constituye un ejemplo de cómo los ciberdelincuentes seguirán personalizando sus acciones. EFE/Oskar Burgos/Archivo

El documento publicado no da muchos más detalles, ni proporciona ninguno de los nombres de las víctimas.

Este es sólo el segundo caso registrado de estafadores que usan herramientas de modelado de voz para llevar a cabo un atraco de esta magnitud. El primero fue en 2019 cuando un grupo de estafadores utilizaron esta tecnología para hacerse pasar por el director ejecutivo de una empresa de energía del Reino Unido, en su intento por robar 240.000 dólares según reporta el Wall Street Journal.

Estos casos evidencian cuán peligrosas pueden llegar a ser las estafas mediadas por Inteligencia artificial como lo aseguró a Forbes Jake Moore, un ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido, “las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”

Manipular audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y el conocimiento de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes”, agregó.

Cada vez son más las empresas que se encuentran desarrollando software que hace posible la clonación de voz especialmente para fines de entretenimiento. Recientemente causó revuelo la revelación de que el difunto Anthony Bourdain tenía su voz sintetizada para un documental sobre su vida. Mientras tanto, reconociendo el potencial de uso malintencionado de la IA, también ha surgido otro puñado de empresas, como la firma de seguridad Pindrop, que ahora afirman que pueden detectar voces sintetizadas y así prevenir fraudes.

Hoy cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web, es susceptible de que su voz sea doblada sin que lo sepa.

SEGUIR LEYENDO

Últimas Noticias

Rusia lanzó un ataque masivo con drones y misiles contra la infraestructura energética de Ucrania: al menos 2 muertos

Tras el bombardeo, el Ministerio de Energía ucraniano afirmó que “se han decretado cortes de suministro eléctrico de emergencia” en varias regiones del país

Rusia lanzó un ataque masivo

Australia se encamina a aprobar un paquete de leyes que endurece la tenencia de armas tras el atentado terrorista en Bondi Beach

El gobierno del estado australiano de Nueva Gales del Sur decidió convocar de urgencia al Parlamento este martes para tratar lo que definió como “las reformas más duras sobre armas de fuego del país”

Australia se encamina a aprobar

Estados Unidos alertó que el régimen de China expandió su arsenal nuclear y bloqueó el diálogo sobre el control de armas

El Pentágono señaló que Beijing ha desplegado más de 100 misiles balísticos intercontinentales y no permite la supervisión internacional sobre sus capacidades

Estados Unidos alertó que el

Arte, impacto viral y una ciudad en contraste: así sorprendió Banksy a Londres con dos murales navideños

Las nuevas intervenciones del artista impulsan a la reflexión sobre la desigualdad y movilizan a la comunidad ante esta realidad. Por qué estas obras reafirman el rol del muralismo como catalizador de debates sociales en todo el mundo

Arte, impacto viral y una

Netanyahu llevará el programa nuclear iraní y la próxima fase del plan para Gaza a la agenda de su reunión con Trump

El primer ministro israelí afirma que la reducción del enriquecimiento de uranio sigue siendo una exigencia central de Washington y Jerusalén, en un contexto marcado por ejercicios con misiles de Teherán y por las negociaciones sobre Gaza y la frontera con Líbano

Netanyahu llevará el programa nuclear
MÁS NOTICIAS