Fraudes corporativos con IA: así copian voces y rostros de directivos para cometer estafas

El crecimiento de los deepfakes corporativos está impulsando una nueva generación de fraudes financieros altamente personalizados

Guardar
Google icon
Deepfake - IA - jóvenes - adultos - tecnología - 22 de enero
Los fraudes digitales en empresas se han disparado por las deepfakes. (Imagen ilustrativa Infobae)

La inteligencia artificial se convirtió en una nueva herramienta para el cibercrimen corporativo. Delincuentes ya utilizan deepfakes, clonación de voz y videollamadas falsas para hacerse pasar por altos ejecutivos y ordenar transferencias millonarias dentro de empresas.

Uno de los casos más impactantes ocurrió en enero de 2024, cuando un director financiero de la multinacional Arup autorizó pagos por 25 millones de dólares tras participar en una videollamada donde creyó estar hablando con otros directivos de la compañía. Todos eran falsos: rostros, voces y gestos habían sido generados mediante inteligencia artificial.

PUBLICIDAD

El episodio refleja el crecimiento de una modalidad de fraude cada vez más sofisticada. Según datos del Federal Bureau of Investigation (FBI), las estafas de suplantación de ejecutivos, conocidas como Business Email Compromise (BEC), generaron pérdidas por 2.770 millones de dólares en Estados Unidos durante 2024.

Hombre de traje hablando frente a micrófono, con gráficos digitales de audio y texto superpuestos
Un deepfake es utilizado como herramienta para cometer fraude digital mediante suplantación de identidad. (Imagen Ilustrativa Infobae)

A esto se suma un aumento explosivo de los deepfakes corporativos. Especialistas en ciberseguridad señalan que este tipo de fraudes creció un 3.000 % en el último año, impulsado por herramientas de inteligencia artificial capaces de clonar voces utilizando menos de 60 segundos de audio.

PUBLICIDAD

La amenaza también impacta a América Latina. De acuerdo con datos de ESET, el 27 % de las compañías de la región sufrió al menos un ciberataque durante el último año. En Argentina, el panorama es especialmente preocupante: el país figura entre los diez con más credenciales robadas a nivel global, representando el 3,04 % del total mundial según la firma Surfshark.

Además, durante el primer semestre de 2025 se registraron más de 1.600 millones de intentos de ataque en el país. El tiempo promedio para solucionar una credencial expuesta alcanza los 94 días, un período que puede ser aprovechado por ciberdelincuentes para acceder a sistemas internos y ejecutar fraudes financieros.

Pablo García, BDM Cyber LATAM de TIVIT, explica que estos ataques suelen ser cuidadosamente planificados y combinan ingeniería social con herramientas avanzadas de inteligencia artificial.

Primer plano de un rostro manipulado digitalmente junto a un teléfono móvil con alerta bancaria en pantalla.
Imagen que muestra un deepfake utilizado para suplantación en fraudes digitales a través de aplicaciones bancarias. (Imagen Ilustrativa Infobae)

Según el especialista, los delincuentes recopilan información pública disponible en plataformas como LinkedIn, redes sociales y comunicados corporativos para identificar quiénes autorizan pagos, cómo se comunican los ejecutivos y cuáles son sus rutinas laborales.

Con esos datos crean correos falsos, llamadas telefónicas con voces clonadas o incluso videollamadas con deepfakes que imitan de manera convincente a directivos reales de la empresa.

García advierte que este tipo de ataques, conocidos también como whaling, apuntan específicamente a ejecutivos de alto rango debido a la autoridad que poseen dentro de la organización.

“El fraude no explota fallas tecnológicas, explota procesos internos y la urgencia del día a día”, sostiene el especialista.

Los avances en inteligencia artificial hicieron que la generación de voces sintéticas y rostros falsos sea más accesible que nunca. Actualmente existen plataformas gratuitas capaces de recrear voces humanas con gran precisión utilizando pocos segundos de grabación.

(Imagen Ilustrativa Infobae)
La imagen muestra una pantalla con advertencias sobre la generación de deepfakes, acompañada de siluetas humanas y símbolos digitales de seguridad, como candados y escudos, que representan la preocupación por la privacidad y la integridad digital en la era de la inteligencia artificial. (Imagen Ilustrativa Infobae)

La calidad alcanzada por estas herramientas complica la detección de fraudes, especialmente en contextos donde las decisiones deben tomarse rápidamente o las comunicaciones ocurren de forma remota.

Frente a este escenario, especialistas recomiendan reforzar protocolos internos de seguridad para reducir riesgos. Una de las medidas principales es implementar doble validación obligatoria en operaciones sensibles.

Esto significa que si un supuesto CEO solicita una transferencia urgente mediante correo o mensaje, el pedido debe confirmarse a través de una llamada realizada a un número previamente registrado y verificado por la empresa.

Otra recomendación clave es la segregación de funciones. Los expertos señalan que quien solicita una operación financiera no debería ser la misma persona encargada de aprobarla o ejecutarla.

La tecnología que permite a una inteligencia artificial olvidar voces específicas revoluciona el combate contra los deepfakes
Las deepfakes se han vuelto más personalizadas. (Imagen Ilustrativa Infobae)

También se insiste en la importancia de utilizar autenticación multifactor (MFA), debido a que muchas intrusiones comienzan con robo de credenciales corporativas.

El crecimiento de los deepfakes corporativos muestra cómo el cibercrimen está evolucionando hacia ataques cada vez más personalizados y dirigidos específicamente a las estructuras internas de las empresas.

Ante este panorama, los especialistas consideran fundamental que las compañías revisen constantemente sus mecanismos de validación, protocolos de emergencia y sistemas de autorización para evitar que una videollamada falsa termine provocando pérdidas millonarias.

PUBLICIDAD

PUBLICIDAD