
Cada vez son más conocidas las estafas con voces clonadas por inteligencia artificial (IA), un tipo de ciberataque que utiliza esta tecnología para clonar voces, suplantando la identidad de familiares o amigos para engañar a sus víctimas.
Según una encuesta reciente realizada por McAfee, el 77% de las víctimas de esta modalidad de fraude terminaron enviando dinero.
Por esta razón, explicamos todo lo que debes saber para reconocer este tipo de estafas, y no perder grandes sumas de dinero y tus datos privados.
Cómo funciona esta modalidad de robo

Este reciente tipo de estafa se inicia con una llamada telefónica en la que los delincuentes usan una voz clonada por IA para hacerse pasar por un conocido.
Normalmente, la llamada simula una situación de emergencia en la que el supuesto familiar o amigo solicita el envío urgente de dinero. Cada vez son más habituales estos engaños, que confunden a las personas con voces de familiares.
Estos fraudes también afectan a las empresas. Los cibercriminales utilizan la clonación de voz para hacerse pasar por superiores o jefes y así convencer a los empleados de realizar transferencias de dinero.
Este método de suplantación resulta ser una combinación de deepfake de voz y robo de identidad, lo cual aumenta su efectividad y la dificultad para detectarlo.
WhatsApp: el foco de interés de los ciberdelincuentes

La IA ha facilitado a los estafadores acceder a datos personales y a contactos. Necesitan recopilar grabaciones o muestras de voz para replicarlas y llevar a cabo las estafas. A menudo, estos delincuentes también roban cuentas de WhatsApp para ganarse la confianza de las víctimas a través de mensajes previos a las llamadas.
La protección contra estas amenazas requiere entender cómo operan estas tecnologías y ser cautelosos con las solicitudes inesperadas de dinero.
Las estafas con voces clonadas por IA representan uno de los desafíos más recientes en la protección de datos y privacidad, vinculados directamente con la inteligencia artificial.
Este tipo de ciberataque genera alarma porque es difícil de identificar y las consecuencias pueden ser financieramente devastadoras. Por ello, reconocer los signos de una posible estafa resulta fundamental para prevenirla.
Cómo identificar un caso de voz clonada por IA

Entre los pasos preventivos más recomendados están el verificar la identidad de quien solicita el dinero mediante otra fuente de contacto, como una videollamada o una pregunta cuya respuesta solo conozcan ambas partes.
También, es importante ser cauteloso a la hora de compartir datos personales en redes sociales, pues estos pueden ser utilizados para clonar la voz.
Para aquellos que se encargan de la seguridad en empresas, se recomienda implementar protocolos de verificación más estrictos, como la autorización por escrito de transferencias importantes.
Además, capacitar a los empleados para que reconozcan las señales de fraude y mantengan una comunicación constante entre equipo es vital para prevenir estos ataques.
Cómo protegerte de esta amenaza cibernética

Una de las principales medidas es verificar la autenticidad de cualquier solicitud de dinero mediante una llamada o contacto por un medio alternativo a la persona que supuestamente necesita la ayuda económica.
Asimismo, es recomendable implementar el uso de una contraseña familiar en caso de menores de edad, y limitar la cantidad de información personal que se publica en redes sociales.
Esta medida incluye controlar la difusión de audios y vídeos y configurar los ajustes de privacidad para que solo los contactos de confianza puedan acceder a la información compartida.
En el ámbito empresarial, es importante capacitar a los empleados sobre las estafas de voces clonadas y qué acciones deben tomar para evitar caer en ellas. Una formación adecuada puede reducir considerablemente los riesgos asociados a estos fraudes.
Nunca se debe enviar dinero sin haber confirmado la identidad de la persona que realiza la solicitud y la veracidad de su historia. Esta precaución es clave para prevenir engaños.
En caso de sospecha de hackeo en aplicaciones de mensajería como WhatsApp, se debe informar inmediatamente a los contactos para que estén alertas ante peticiones dudosas.
Últimas Noticias
“Es ridículo”: CEO de Take-Two explica por qué la IA jamás podrá crear un juego como GTA
Strauss Zelnick comparó la situación con la música generada por IA, que puede sonar profesional, pero carece del atractivo duradero de las obras creadas por artistas

¿La tienes instalada? Cómo revisar los permisos de tus apps hoy mismo para evitar que te espíen o roben datos
Gestionar los permisos y saber detectar señales de fraude digital es fundamental para mantener tu privacidad y seguridad en el móvil

Cómo funciona Google AI Studio, la herramienta para crear aplicaciones con Gemini
Ahora cualquier usuario, sin importar su experiencia en programación, puede experimentar y crear prototipos utilizando modelos de inteligencia artificial de Google

Starfield llegará a PS5: Bethesda lo confirma y anuncia fecha oficial del lanzamiento
El videojuego traerá una actualizacion denominada Free Lane que incorpora nuevos planetas y mazmorras por explorar

Fortnite volverá a estar disponible en Play Store en todo el mundo: esta es la fecha oficial
El regreso del juego a la tienda de apps de Google, se produce al tiempo del aumento de precios de su moneda virtual




