IA es la herramienta predilecta de estafadores: estos nuevos fraudes bancarios han evolucionado y son más difíciles de detectar

Especialistas en ciberseguridad advierten que las estafas financieras evolucionaron a un nivel sin precedentes: ahora usan clonación de voz, apps idénticas a las oficiales y hasta deepfake

Guardar
Google icon
Ilustración acuarela: figura encapuchada ante monitores con gráficos de datos y redes neuronales, teclado, portátil, tarjetas de crédito y documentos bancarios.
Un estafador encapuchado utiliza múltiples pantallas que muestran datos complejos y redes neuronales, simbolizando el uso de inteligencia artificial en la creación de fraudes bancarios modernos que son difíciles de detectar. (Imagen Ilustrativa Infobae)

La inteligencia artificial ya no solo transforma industrias y facilita tareas cotidianas; también se ha convertido en una de las herramientas favoritas de los ciberdelincuentes para cometer fraudes bancarios cada vez más sofisticados, personalizados y difíciles de detectar.

Especialistas en ciberseguridad advierten que durante 2026 las estafas financieras evolucionaron a un nivel sin precedentes: ahora los delincuentes usan clonación de voz, mensajes SMS fraudulentos, aplicaciones falsas idénticas a las oficiales y hasta videos manipulados con tecnología deepfake para engañar a usuarios y vaciar cuentas bancarias.

PUBLICIDAD

De acuerdo con reportes recientes y análisis de expertos en seguridad digital, las señales clásicas que antes ayudaban a identificar un fraude —como errores ortográficos o enlaces sospechosos— prácticamente desaparecieron gracias al uso de IA generativa.

Los nuevos fraudes bancarios usan IA para parecer reales

Uno de los métodos más peligrosos es la clonación de voz mediante inteligencia artificial. Los delincuentes pueden tomar apenas unos segundos de audio publicados en redes sociales o videos para replicar la voz de una persona y hacerse pasar por ejecutivos bancarios, familiares o conocidos.

PUBLICIDAD

Con esta tecnología, las víctimas reciben llamadas extremadamente convincentes donde supuestos empleados del banco alertan sobre cargos no reconocidos, movimientos sospechosos o bloqueos de cuentas. Bajo presión, muchas personas terminan compartiendo códigos de verificación, contraseñas o autorizando transferencias.

Otro esquema en crecimiento es el llamado spoofing telefónico, donde los estafadores falsifican el número de teléfono para que en la pantalla aparezca el nombre real del banco. Esto aumenta la confianza de la víctima y hace más difícil sospechar del engaño.

SMS falsos y apps clonadas: el fraude que ya parece auténtico

Los expertos también alertan sobre el aumento del smishing, una modalidad de phishing vía SMS. Ahora los mensajes fraudulentos llegan con logotipos oficiales, lenguaje profesional e incluso dentro del mismo hilo de conversación legítimo del banco.

En muchos casos, los mensajes incluyen enlaces hacia páginas idénticas a las oficiales o invitan a descargar aplicaciones falsas que copian la interfaz de instituciones financieras reales. Una vez instaladas, estas apps roban contraseñas, datos personales y códigos de autenticación.

Incluso ha crecido el llamado quishing, un fraude mediante códigos QR falsos que redirigen a sitios diseñados para capturar información bancaria.

Según especialistas citados por firmas de ciberseguridad, los ataques ya no son masivos y genéricos, sino personalizados. Los delincuentes aprovechan información disponible en redes sociales, filtraciones de datos y hábitos digitales para crear engaños hechos prácticamente “a la medida” de cada víctima.

Deepfakes y reconocimiento facial: otra amenaza para bancos

La expansión de los deepfakes también preocupa a instituciones financieras y autoridades. Esta tecnología permite generar videos o rostros falsos hiperrealistas para burlar sistemas biométricos y verificaciones de identidad.

Especialistas advierten que la IA puede crear audios y videos tan convincentes que ya no basta con “reconocer una voz” o confiar en una videollamada para validar la identidad de una persona.

En América Latina, México ya figura entre los países con mayor preocupación por fraudes impulsados con inteligencia artificial, particularmente en sectores financieros y plataformas digitales.

¿Cómo protegerse de los nuevos fraudes bancarios?

Ante este panorama, expertos recomiendan adoptar nuevas medidas de seguridad digital:

  • Nunca compartir códigos de verificación por llamada o mensaje.
  • Evitar descargar aplicaciones desde enlaces enviados por SMS o WhatsApp.
  • Verificar directamente con el banco cualquier alerta sospechosa.
  • Activar la autenticación de dos factores.
  • Desconfiar de llamadas que generen urgencia o presión inmediata.
  • Revisar cuidadosamente códigos QR antes de escanearlos.
  • Limitar la publicación de audios y videos personales en redes sociales.

Además, compañías tecnológicas ya trabajan en nuevas herramientas de protección. Google anunció recientemente funciones de seguridad en Android capaces de detectar llamadas bancarias fraudulentas y comportamientos sospechosos en aplicaciones mediante inteligencia artificial.

Los especialistas coinciden en que el gran desafío de 2026 será aprender a distinguir entre lo real y lo generado por IA, en un entorno donde los fraudes digitales son cada vez más sofisticados y difíciles de detectar.

PUBLICIDAD

PUBLICIDAD