
Ciberdelincuentes están implementando una nueva estafa que utiliza voces generadas con inteligencia artificial para hacer creer a las posibles víctimas que su cuenta de correo electrónico ha sido comprometida.
Según un video publicado en X por la Policía Nacional de España, el engaño comienza con una llamada que simula la voz de una persona real, pero en realidad es una inteligencia artificial.
Durante la llamada, se advierte al usuario que su cuenta de correo —ya sea Gmail, Outlook u otra— está en riesgo, y se le ofrece ayuda para protegerla.

“A continuación, te llegará un correo con enlaces aparentemente fiables, pero que te redirigirán a páginas fraudulentas”, explican en el video. “Querrán que hagas clic para cambiar la configuración de privacidad o la contraseña de tu cuenta”, añaden.
Si se sigue esta instrucción, el usuario estaría entregando su información personal directamente a los ciberdelincuentes.
Cómo evitar caer en esta estafa
En el mismo video, la Policía Nacional de España comparte tres recomendaciones clave para evitar caer en este tipo de estafas telefónicas impulsadas por inteligencia artificial.

La primera es desconfiar de cualquier llamada que supuestamente provenga de servicios electrónicos o empresas tecnológicas, ya que estas entidades nunca se comunican por teléfono para advertir sobre accesos sospechosos o cuentas comprometidas.
Las comunicaciones legítimas suelen hacerse por canales seguros dentro de sus propias plataformas.
En segundo lugar, es fundamental verificar cuidadosamente la dirección de correo electrónico del remitente antes de hacer clic en cualquier enlace o descargar archivos. Muchas veces los ciberdelincuentes usan direcciones que imitan las oficiales, con pequeños cambios o errores que pueden pasar desapercibidos.
Por último, las autoridades recomiendan no acceder nunca a cuentas personales a través de enlaces enviados por correo electrónico o mensajes.

En su lugar, es preferible ingresar manualmente la dirección del sitio web en el navegador o utilizar la aplicación oficial del servicio para evitar ser redirigido a páginas fraudulentas.
Estas medidas, aunque simples, pueden marcar la diferencia entre detectar un intento de estafa a tiempo o convertirse en víctima del robo de datos personales.
Qué hacer si caí en una estafa de este tipo
Si un usuario cae en una estafa telefónica en la que se utilizó una voz generada con inteligencia artificial para obtener acceso a su cuenta de correo electrónico, es fundamental actuar con rapidez.
Lo primero que debe hacer es cambiar inmediatamente la contraseña del correo comprometido desde el sitio oficial del proveedor, y modificar también las claves de otras cuentas en las que haya utilizado la misma combinación.

A continuación, se recomienda activar la verificación en dos pasos para añadir una capa adicional de seguridad que impida accesos no autorizados, incluso si los ciberdelincuentes ya tienen la contraseña.
Es importante revisar la actividad reciente de la cuenta y cerrar cualquier sesión sospechosa o desconocida. También debe reportar el incidente al proveedor del servicio —como Gmail u Outlook— y, en paralelo, presentar una denuncia ante las autoridades competentes, como la Policía Nacional o unidades especializadas en delitos informáticos.
Finalmente, es recomendable mantenerse alerta ante posibles intentos posteriores de fraude, ya que los estafadores podrían utilizar los datos obtenidos para nuevos engaños o suplantaciones.

Revisar regularmente las cuentas, evitar hacer clic en enlaces no verificados y mantenerse informado sobre nuevas modalidades de estafa son medidas clave para proteger la seguridad digital.
Cómo identificar una voz hecha con IA
Identificar una voz generada con inteligencia artificial puede ser difícil, pero hay señales que pueden alertar al usuario. Estas voces suelen tener un tono uniforme, sin variaciones naturales en la entonación o pausas espontáneas.
También pueden presentar una pronunciación extrañamente perfecta o, por el contrario, errores sutiles en nombres propios o expresiones coloquiales. En algunos casos, la conversación puede sentirse robótica, repetitiva o poco coherente si se desvía del guion.
Últimas Noticias
Invertir en longevidad: cuáles son las empresas AgeTech que cuidan el mañana
Desde robots sociales hasta avances en biotecnología, surgen nuevas formas de prevención y acompañamiento para quienes atraviesan la tercera edad

Cómo conversar por WhatsApp con alguien que no tiene instalada la aplicación
Los Guest Chats permiten invitar a cualquier persona a un chat de WhatsApp mediante un enlace personalizado

¿Poner una llave sobre el router Wi-Fi realmente dirige la señal hacia zonas específicas de la casa?
Gemini, la inteligencia artificial de Google, aclara el trasfondo técnico y desmonta el mito con argumentos claros

Este es el nuevo juego de Steam con temática similar a Diablo y más de 1.000 críticas positivas
Dragonkin: The Banished, el nuevo RPG de acción de Eko Software, se consolida como una alternativa para los fans de este género

América Latina bajo ataque: conoce los malware más peligrosos del momento
Si bien cada país presenta peculiaridades, el estudio detectó patrones comunes en las campañas de cibercrimen



