Clonaron la voz de un empresario y estafaron en 35 millones de dólares a un banco de Emiratos Árabes

Usando la tecnología simularon le tono de un cliente recurrente del banco que tenía que hacer transferencias internacionales por ese valor

Guardar
Cualquiera que tenga grabaciones disponibles
Cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web es susceptible de que su voz sea doblada sin que lo sepa.

A inicios del 2020, el Director del banco de Emiratos Árabes Unidos recibió una llamada del que parecía ser un empresario con el que ya había tenido un contacto previo, sin sospechar que estaba siendo víctima de la estafa de un grupo de ciberdelincuentes que valiéndose de la tecnología de “voz profunda” lograron clonar la voz del cliente y hacerse con 35 millones de dólares de manera ilegal.

Así lo asegura Forbes citando el documento legal del caso, donde también se expone que el hombre detrás de la llamada dijo que su empresa estaba a punto de realizar una adquisición, por lo que necesitaba que el banco autorizara algunas transferencias por valor de 35 millones de dólares. Para ello se había contratado a Martin Zelner, un abogado que sería el encargado de coordinar las transacciones.

De acuerdo a lo pactado, el banco recibió varios correos electrónicos de Zelner y del empresario donde se confirmaba la cantidad de dinero a mover y a dónde debía enviarse. Lo legítimo que parecía el trámite dio confianza al Director del banco quién no dudó en dar luz verde a las operaciones, que más tarde confirmarían se trataba de un fraude.

La Fiscalía de Dubai, sostiene que este elaborado plan involucró al menos 17 personas quiénes repartieron el dinero robado en cuentas bancarias de diferentes países del mundo, lo que los ha llevado a buscar el apoyo de investigadores estadounidenses para rastrear al menos 400.000 dólares que ingresaron a cuentas con sede en Estados Unidos vinculadas al Centennial Bank.

Otra tendencia sería el uso
Otra tendencia sería el uso de "deepfake" en los ataques empresariales, lo que constituye un ejemplo de cómo los ciberdelincuentes seguirán personalizando sus acciones. EFE/Oskar Burgos/Archivo

El documento publicado no da muchos más detalles, ni proporciona ninguno de los nombres de las víctimas.

Este es sólo el segundo caso registrado de estafadores que usan herramientas de modelado de voz para llevar a cabo un atraco de esta magnitud. El primero fue en 2019 cuando un grupo de estafadores utilizaron esta tecnología para hacerse pasar por el director ejecutivo de una empresa de energía del Reino Unido, en su intento por robar 240.000 dólares según reporta el Wall Street Journal.

Estos casos evidencian cuán peligrosas pueden llegar a ser las estafas mediadas por Inteligencia artificial como lo aseguró a Forbes Jake Moore, un ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido, “las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”

Manipular audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y el conocimiento de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes”, agregó.

Cada vez son más las empresas que se encuentran desarrollando software que hace posible la clonación de voz especialmente para fines de entretenimiento. Recientemente causó revuelo la revelación de que el difunto Anthony Bourdain tenía su voz sintetizada para un documental sobre su vida. Mientras tanto, reconociendo el potencial de uso malintencionado de la IA, también ha surgido otro puñado de empresas, como la firma de seguridad Pindrop, que ahora afirman que pueden detectar voces sintetizadas y así prevenir fraudes.

Hoy cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web, es susceptible de que su voz sea doblada sin que lo sepa.

SEGUIR LEYENDO

Últimas Noticias

EN VIVO: El régimen de Irán informó que el portavoz de la Guardia Revolucionaria murió en un ataque aéreo

El general Ali Mohammad Naini se desempeñaba como vocero del ejército Islámico desde 2024. Antes de su muerte, había emitido un comunicado insistiendo en que Teherán seguía siendo capaz de fabricar misiles a pesar de los ataques procedentes de Israel y Estados Unidos

EN VIVO: El régimen de

Irán intensifica sus ataques contra la infraestructura energética del Golfo y provoca incendios en una refinería clave de Kuwait

Una nuevo bombardeo del régimen iraní registrado en la madrugada del viernes impactó en varias instalaciones de la refinería Mina Al Ahmadi. En paralelo, Arabia Saudita informó que sus fuerzas “interceptaron y destruyeron más de una docena de drones en el este del país y otro en el norte”

Irán intensifica sus ataques contra

Rusia lanzó un ataque masivo con bombas aéreas contra Zaporizhzhia: al menos un muerto

El impacto de los recientes dos bombardeos nocturnos por parte de Moscú destruyó viviendas en una zona residencial, de acuerdo con autoridades locales

Rusia lanzó un ataque masivo

El dictador Kim Jong-un supervisó un ejercicio militar de gran escala en Pyongyang que incluyó la presentación de un nuevo tanque de combate

La puesta en escena del simulacro fue acompañada por unidades armadas, que ejecutaron maniobras de defensa contra amenazas aéreas, en un momento de creciente preocupación por la seguridad regional

El dictador Kim Jong-un supervisó

León XIV respaldó un texto del papa Francisco sobre los divorciados que vuelven a casarse: “Un mensaje luminoso de esperanza”

La iniciativa impulsada por León XIV busca promover un intercambio entre las diferentes regiones eclesiales, ante los desafíos contemporáneos en torno al matrimonio y la familia, así como posibles actualizaciones de la normativa

León XIV respaldó un texto
MÁS NOTICIAS