
Las estafas digitales impulsadas por inteligencia artificial atraviesan una etapa de expansión sin precedentes. Un análisis realizado por especialistas de la AI Incident Database advierte que el fraude basado en contenidos generados por IA, como los deepfakes, ha dejado de ser un fenómeno marginal para convertirse en una herramienta accesible cuyo uso masivo ha llegado a una escala “industrial”.
La facilidad para crear videos, audios e imágenes falsificadas de manera personalizada y a bajo costo está transformando la dinámica de la ciberdelincuencia global.
PUBLICIDAD
Deepfakes y su impacto en el fraude digital
El estudio identifica más de una docena de casos recientes donde los delincuentes utilizaron herramientas de IA para suplantar identidades con fines de lucro. Entre los ejemplos figuran videos falsos del presidente de Chipre, periodistas suecos o el primer ministro de Australia Occidental, Robert Cook, promoviendo esquemas fraudulentos. También se reportaron deepfakes de supuestos médicos recomendando productos en línea.

Esta tendencia se refleja en incidentes de alto perfil, como el caso de un responsable financiero en una multinacional de Singapur que transfirió cerca de 500.000 dólares tras una videollamada manipulada con deepfakes que imitaban a sus superiores. En Reino Unido, se estiman pérdidas de 9.400 millones de libras por fraudes entre febrero y noviembre de 2025.
PUBLICIDAD
“Las capacidades han llegado a un punto donde prácticamente cualquiera puede generar contenido falso”, señala a The Guardian Simon Mylius, investigador del MIT vinculado al proyecto. Según sus cálculos, los fraudes y manipulaciones dirigidas representan la mayoría de los casos reportados en la base de datos durante los últimos meses.
La facilidad y velocidad de la estafa automatizada
El abaratamiento y mejora de los modelos de IA han acelerado la producción de deepfakes, facilitando su uso en campañas fraudulentas a gran escala. “Es tan barato que cualquiera puede utilizarlo. Los modelos están mejorando más rápido de lo que muchos especialistas preveían”, advierte Fred Heiding, investigador de Harvard enfocado en estafas potenciadas por IA.
PUBLICIDAD

Un caso reciente ilustra el alcance de la amenaza. Jason Rebholz, CEO de una compañía de seguridad de IA, publicó una vacante laboral y fue contactado por un candidato que, tras intercambios de correos, resultó ser una imagen generada por IA.
Durante la videollamada, el entorno y los bordes del rostro del supuesto candidato resultaban artificiales y poco definidos. Tras consultar con una firma de detección de deepfakes, Rebholz confirmó que el aspirante era un fraude digital. El objetivo del estafador sigue sin estar claro: podría haber buscado obtener un salario o acceder a información confidencial.
PUBLICIDAD
Rebholz advierte que este tipo de ataques ya no se limita a grandes empresas. “Si nosotros somos objetivo, cualquiera puede serlo”, afirma. Los expertos señalan que el verdadero desafío se vislumbra en el futuro próximo, a medida que la tecnología de clonación de voz y video perfeccione su calidad, haciendo aún más difícil distinguir entre lo real y lo falso.

Consecuencias y desafíos para la confianza digital
El crecimiento del fraude con IA plantea riesgos crecientes para la seguridad, la economía y la confianza pública. El uso de deepfakes y clonación de voz ya impacta procesos críticos, desde contrataciones laborales hasta campañas electorales. La capacidad de los estafadores para manipular audiencias, suplantar identidades y acceder a recursos financieros o secretos empresariales genera preocupación entre especialistas y autoridades.
PUBLICIDAD
Fred Heiding advierte sobre el peligro de una pérdida generalizada de confianza en instituciones digitales y en la veracidad de los contenidos que circulan en línea. “Ese será el gran punto de dolor: la ausencia total de confianza en las instituciones y materiales digitales”, sostiene.
La facilidad para adquirir y utilizar herramientas de IA abre la puerta a una industrialización del fraude, donde la escala y la personalización de los ataques aumentan el desafío para empresas, gobiernos y usuarios. El estudio concluye que la sociedad enfrentará un escenario en el que la autenticidad digital será cada vez más difícil de garantizar, obligando a reforzar las estrategias de prevención, detección y educación frente a los riesgos emergentes de la inteligencia artificial.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Sega cancela su proyecto “superjuego” y abandona el modelo free-to-play
Sega reorganiza su estrategia por completo. Menos apuestas por juegos como servicio y mayor enfoque en franquicias premium tradicionales

Los mensajes entre iPhone y Android ahora están más protegidos: llega el cifrado
Esta función está disponible para quienes actualicen a iOS 26.5 y cuenten con operador compatible

Sistemas automatizados de selección laboral favorecen currículums creados por IA y rechazan los humanos
Investigadores detectaron que los sistemas automatizados de contratación muestran preferencia por textos con estructuras y vocabulario generados por IA

Puedes ser sancionado por 8.000 años si juegas Forza Horizon 6 antes de su lanzamiento
Debido a la filtración, la versión Premium del juego perdió sentido porque muchos pudieron disfrutarlo antes sin pagar

Google atrapó al primer hacker que usó inteligencia artificial para romper una cerradura digital: hay miles más y no los vamos a ver venir
Una banda criminal le pidió a un modelo de IA que descubriera una falla inédita en un software muy usado y preparaba un ataque masivo: el jefe de inteligencia de Google lo llama “la punta del iceberg”




