
Las estafas digitales impulsadas por inteligencia artificial atraviesan una etapa de expansión sin precedentes. Un análisis realizado por especialistas de la AI Incident Database advierte que el fraude basado en contenidos generados por IA, como los deepfakes, ha dejado de ser un fenómeno marginal para convertirse en una herramienta accesible cuyo uso masivo ha llegado a una escala “industrial”.
La facilidad para crear videos, audios e imágenes falsificadas de manera personalizada y a bajo costo está transformando la dinámica de la ciberdelincuencia global.
Deepfakes y su impacto en el fraude digital
El estudio identifica más de una docena de casos recientes donde los delincuentes utilizaron herramientas de IA para suplantar identidades con fines de lucro. Entre los ejemplos figuran videos falsos del presidente de Chipre, periodistas suecos o el primer ministro de Australia Occidental, Robert Cook, promoviendo esquemas fraudulentos. También se reportaron deepfakes de supuestos médicos recomendando productos en línea.

Esta tendencia se refleja en incidentes de alto perfil, como el caso de un responsable financiero en una multinacional de Singapur que transfirió cerca de 500.000 dólares tras una videollamada manipulada con deepfakes que imitaban a sus superiores. En Reino Unido, se estiman pérdidas de 9.400 millones de libras por fraudes entre febrero y noviembre de 2025.
“Las capacidades han llegado a un punto donde prácticamente cualquiera puede generar contenido falso”, señala a The Guardian Simon Mylius, investigador del MIT vinculado al proyecto. Según sus cálculos, los fraudes y manipulaciones dirigidas representan la mayoría de los casos reportados en la base de datos durante los últimos meses.
La facilidad y velocidad de la estafa automatizada
El abaratamiento y mejora de los modelos de IA han acelerado la producción de deepfakes, facilitando su uso en campañas fraudulentas a gran escala. “Es tan barato que cualquiera puede utilizarlo. Los modelos están mejorando más rápido de lo que muchos especialistas preveían”, advierte Fred Heiding, investigador de Harvard enfocado en estafas potenciadas por IA.

Un caso reciente ilustra el alcance de la amenaza. Jason Rebholz, CEO de una compañía de seguridad de IA, publicó una vacante laboral y fue contactado por un candidato que, tras intercambios de correos, resultó ser una imagen generada por IA.
Durante la videollamada, el entorno y los bordes del rostro del supuesto candidato resultaban artificiales y poco definidos. Tras consultar con una firma de detección de deepfakes, Rebholz confirmó que el aspirante era un fraude digital. El objetivo del estafador sigue sin estar claro: podría haber buscado obtener un salario o acceder a información confidencial.
Rebholz advierte que este tipo de ataques ya no se limita a grandes empresas. “Si nosotros somos objetivo, cualquiera puede serlo”, afirma. Los expertos señalan que el verdadero desafío se vislumbra en el futuro próximo, a medida que la tecnología de clonación de voz y video perfeccione su calidad, haciendo aún más difícil distinguir entre lo real y lo falso.

Consecuencias y desafíos para la confianza digital
El crecimiento del fraude con IA plantea riesgos crecientes para la seguridad, la economía y la confianza pública. El uso de deepfakes y clonación de voz ya impacta procesos críticos, desde contrataciones laborales hasta campañas electorales. La capacidad de los estafadores para manipular audiencias, suplantar identidades y acceder a recursos financieros o secretos empresariales genera preocupación entre especialistas y autoridades.
Fred Heiding advierte sobre el peligro de una pérdida generalizada de confianza en instituciones digitales y en la veracidad de los contenidos que circulan en línea. “Ese será el gran punto de dolor: la ausencia total de confianza en las instituciones y materiales digitales”, sostiene.
La facilidad para adquirir y utilizar herramientas de IA abre la puerta a una industrialización del fraude, donde la escala y la personalización de los ataques aumentan el desafío para empresas, gobiernos y usuarios. El estudio concluye que la sociedad enfrentará un escenario en el que la autenticidad digital será cada vez más difícil de garantizar, obligando a reforzar las estrategias de prevención, detección y educación frente a los riesgos emergentes de la inteligencia artificial.
Últimas Noticias
Cómo evitar que Starlink use tus datos personales para entrenar a la inteligencia artificial
Por defecto, los usuarios están inscritos para que su información sea usada por la empresa de Elon Musk

Spotify lanza nueva función que revela la historia detrás de cada canción y tus artistas favoritos
‘About the song’ es el nombre de la nueva característica que tiene detrás otros anuncios con IA y para los audiolibros
Ciberataques en América Latina siguen aumentando: casi 3.000 hackeos a la semana
Las consecuencias financieras de los ciberataques son significativas, ya que el promedio por brecha de datos en América Latina asciende a USD 3,81 millones

Invertir en la salud del cerebro puede potenciar la economía mundial, según un informe
Un estudio internacional revela que mejorar el bienestar mental y las habilidades del cerebro podría sumar miles de millones de dólares a la economía global y aumentar la productividad de países y empresas

Por qué no estudiar estas tres carreras universitarias, según la IA
Ramas de estudio como la filosofía y la administración de empresas se deben orientar estratégicamente para que generen dinero y sean una oportunidad laboral




