
Mientras que la tecnología para el desarrollo de la inteligencia artificial como herramienta avanza, los cibercriminales han empezado a utilizarla como un medio para mejorar la calidad de sus ataques. La capacidad de generar voces artificiales por medio de este tipo de software ya empezó a cobrar varias víctimas, quienes han llegado a perder su dinero por medio de estafas.
Un método utilizado por varios años fue el engaño del familiar en problemas, que consistía en llamar al teléfono de una persona e imitar la voz de un miembro cercano de la familia para pedir “ayuda económica” para pagar algún tipo de deuda. Aunque antes era posible identificar las estafas por las diferencias en la voz de los criminales, con la inteligencia artificial esta posibilidad se reducirá aún más.
La generación de estas voces tampoco requeriría de mucho esfuerzo por parte de los cibercriminales, pues solo necesitarían una muestras de la voz del supuesto familiar, algo que es posible por medio de publicaciones en redes sociales. Con esta información, tendrían la capacidad de entrenar a una inteligencia artificial y hacer que siga un guion creado por los delincuentes que genere una sensación de urgencia y provoque la disposición de la víctima de realizar un pago con su dinero.
Le puede interesar: Cibercriminales están robando datos de Gmail por medio de Chrome y Microsoft Edge
Pese a que las voces creadas por inteligencia artificial son altamente similares a las de una persona real (dependiendo de la calidad del software), sí es posible reconocer cuándo se está tratando de una estafa. La recomendación en este tipo de situaciones, según la Comisión Federal de Comercio de Estados Unidos, es el establecimiento de una palabra o frase de seguridad que solo conozcan los familiares.

Esta palabra solo podrá ser utilizada en un contexto de peligro o emergencia real, por lo que deberá ser un término que no forme parte de las conversaciones normales entre los familiares. En caso de que se realicen este tipo de llamadas, preguntar por la palabra clave sería el factor diferencial entre una inteligencia artificial que imite la voz de la persona y la víctima real. Si se ha dado una respuesta incorrecta, el paso siguiente debería ser el de terminar la llamada inmediatamente para evitar que el criminal pueda ejercer mayor presión.
Otra alternativa viable para los familiares que reciben este tipo de llamadas es terminarla inmediatamente e intentar comunicarse directamente con el celular del contacto en supuesto peligro. Sin embargo, este método solo debería utilizarse si se tiene una gran certeza sobre su ubicación, de forma que se evite ignorar un pedido genuino de ayuda.
Le puede interesar: Cómo saber a qué información de mi celular Android accede cada aplicación
En el caso de que ninguna de las opciones anteriores sea viable, las víctimas al otro lado de la línea telefónica deberán prestar atención al pedido del supuesto familiar en peligro. Ya que los cibercriminales no desean ser identificados, los métodos de pago que solicitará será en criptomonedas o tarjetas de regalo que puedan ser canjeadas por productos en establecimientos comerciales.

Una vez que alguno de estos términos sean mencionados, serán las víctimas quienes decidan si tiene sentido que su familiar solicite ayudas económicas de este tipo. En caso de que la respuesta a esta pregunta sea negativa, lo más seguro será finalizar la llamada.
Le puede interesar: Cinco prácticas de ciberdelincuencia que pueden crecer con la inteligencia artificial
Si alguien se encuentra en un escenario similar, es preferible evitar mencionar más datos relevantes que puedan ser utilizados posteriormente por los cibercriminales para un ataque por otros medios como el phishing o el hackeo. Información como números de identificación, nombres completos, direcciones o contactos adicionales no deberán ser mencionados en la conversación.
Últimas Noticias
Spotify lanza la función Perfil de Gustos: usa IA para ajustar tus recomendaciones
Por primera vez, los suscriptores pueden revisar y modificar directamente lo que el sistema prioriza en la app

WhatsApp prepararía cambio clave para Meta AI: una pestaña propia
Con la integración de la inteligencia artificial de Meta en una pestaña dedicada, los usuarios podrían gestionar consultas, generar contenido y personalizar el asistente sin complicaciones

Cómo usar el nuevo modo 3D de Google Maps para que nunca te pierdas
Gracias a la representación gráfica avanzada y las instrucciones de voz contextuales, los usuarios pueden distinguir fácilmente estructuras urbanas y tomar decisiones rápidas

Robot humanoide es intervenido por asustar a una mujer de 70 años en la calle
Este incidente viral, en el que la autoridad se vio obligada a intervenir, resalta la necesidad establecer protocolos y campañas educativas sobre estos dispositivos

Fin de los mensajes directos cifrados en Instagram: Meta anunció la fecha de esta medida
Esta decisión abre la puerta a que la plataforma acceda al contenido de los chats, lo cual representa un retroceso en cuanto la privacidad de las redes sociales


