
El más reciente informe de McAfee sobre inteligencia artificial y ciberseguridad aborda directamente uno de los temas más relevantes de la actualidad con un título claro: Cuidado con el impostor artificial, advertencia sobre las estafas telefónicas con clonación de voz.
Sobre esto, Fabio Sánchez, director de Ciberseguridad de OCP TECH, señala que el fenómeno ha experimentado un crecimiento exponencial en los últimos meses y la encuesta realizada por McAfee es la más amplia hasta la fecha.
PUBLICIDAD
Según los datos recopilados durante el transcurso de 2023, esta nueva amenaza utiliza la tecnología de clonación de voz respaldada por IA, representando una versión moderna de las conocidas estafas telefónicas como el famoso “Hola, mamá. Tuve un accidente.”
PUBLICIDAD
En este tipo de estafas, un delincuente hace una llamada telefónica y crea una situación de estrés significativa, llevando a la víctima a creer que está hablando realmente con un familiar que solicita ayuda urgente (y, por supuesto, requiere el pago en efectivo para brindar la asistencia necesaria).
La incorporación de tecnología en este antiguo esquema dificulta en gran medida su detección e incluso puede lograr el objetivo sin necesidad de generar una situación estresante.
PUBLICIDAD
Exposición y datos personales

Tan solo en los Estados Unidos, se estima que durante 2022, esta estafa ocasionó pérdidas por un total de 2.600 millones de dólares, y esta tendencia también se está incrementando en otros países.
En el Reino Unido, por ejemplo, una variante de esta estafa llevada a cabo exclusivamente a través de WhatsApp resultó en pérdidas por 1,5 millones de libras esterlinas en tan solo cuatro meses. Asimismo, en Australia, una extendida estafa mediante mensajes de texto al mismo estilo provocó una pérdida promedio por víctima de 5.000 dólares.
PUBLICIDAD
Estos datos correspondientes a 2022, cuando el uso de estas tecnologías aún no estaba tan generalizado, indican que lo peor está por venir. La creciente disponibilidad y sofisticación de las herramientas de IA están transformando las reglas del ciberdelito.
Además, estas herramientas de clonación de voz respaldadas por esta tecnología son accesibles en términos de costo y sencillas de utilizar. La época en la que se requería tiempo, habilidades técnicas y talento para llevar a cabo una estafa, ahora está al alcance de cualquiera.
PUBLICIDAD
La disponibilidad de herramientas técnicas se combina con un factor crucial para estas prácticas: la frecuencia con la que se comparte la voz. Según McAfee, el 53% de los adultos encuestados comparten su voz en línea al menos una vez a la semana, y el 49% lo hace hasta 10 veces en el mismo período. Esto sin considerar los videos personales en plataformas como Instagram o TikTok.
PUBLICIDAD
Público objetivo de estas estafas
El 25% admitió haber tenido alguna experiencia relacionada con una estafa de voz con IA, siendo uno de cada diez encuestados víctima directa de estas estafas y el 15% afirmando conocer a alguien afectado. Por su parte, el 36% nunca ha oído hablar de estafas que involucran herramientas de clonación de voz, lo que resalta la necesidad de una mayor educación y conciencia sobre esta amenaza en crecimiento.
Frente al perfil de las víctimas y los escenarios utilizados por los estafadores, el 45% de los encuestados admitió que respondería positivamente a una solicitud de dinero de un amigo o ser querido. Algunos de los escenarios más exitosos creados por los estafadores incluyen accidentes automovilísticos (48%), robos (47%), pérdida de celular o billetera (43%), o una petición de ayuda de un amigo que está en el extranjero (41%).
PUBLICIDAD

El 40% indicó que es más probable que respondan si la solicitud proviene de su pareja o cónyuge, mientras que los padres mayores de 50 años tienen más probabilidades de responder positivamente si el mensaje proviene de un hijo (41%).
Es importante mencionar que la mayoría de los casos reportados involucran a padres o abuelos que informan que un ciberdelincuente ha clonado la voz de un hijo o nieto y se ha hecho pasar por ellos.
PUBLICIDAD
Qué hacer para protegerse de las estafas
Aquí están las recomendaciones para protegerse de las estafas de clonación de voz en forma de elementos individuales:
1. Establecer una “palabra segura” como un código entre familiares y amigos para situaciones de emergencia. Esto permitirá alertar tempranamente sobre posibles estafas de clonación de voz.
2. Desconfiar de la fuente, especialmente si proviene de un número desconocido. En estos casos, es mejor solicitar algunos datos adicionales para verificar la identidad de la persona con la que estás hablando, incluso llamando desde otro número.
3. Controlar las emociones y cuestionar todo. Preguntar si la persona realmente es quien dice ser, si el contexto es creíble y si lo que te están solicitando es algo razonable. Realizar estos cuestionamientos puede marcar la diferencia.
4. Considerar selectivamente las llamadas de números desconocidos. En el entorno actual, es crucial decidir cuáles llamadas atender y cuáles ignorar. En última instancia, analizar un mensaje de buzón de voz de manera objetiva puede evitar caer en prácticamente cualquier estafa.
Estas recomendaciones ofrecen pautas prácticas para protegerse y estar alerta ante posibles estafas de clonación de voz.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Para qué sirve el primer modelo de IA geoespacial, que ya se encuentra en órbita
Este sistema fue desarrollado por la NASA e IBM y entrenado con datos de los satélites Landsat y Sentinel-2

Cuanto más amable suena tu chatbot, más te miente
Un estudio de Oxford publicado en Nature mide por primera vez el costo de entrenar modelos para ser cálidos: hasta 30 puntos menos de precisión y 40% más de coincidencia con creencias falsas. Cuál es el impacto en las personas más vulnerables

La IA Claude ya puede usar información de tus aplicaciones de Microsoft Office: así funciona
Usuarios de estas aplicaciones pueden automatizar reportes y análisis de datos utilizando las capacidades avanzadas del asistente inteligente

Desde hoy, tus mensajes en Instagram ya no están cifrados: así afecta tu privacidad
Con la nueva medida, nada podrá impedir que Meta lea y analice los mensajes privados que se envíen en la plataforma

El nuevo éxito de Steam podría dañar el almacenamiento de tu PC si no lo actualizas
El popular juego Windrose generó preocupación entre jugadores de PC tras detectarse que podía provocar escrituras excesivas en discos SSD durante las partidas



