La irrupción de la inteligencia artificial en los ciberataques ha transformado los fraudes digitales, convirtiéndolos en amenazas impredecibles, automatizadas y cada vez más complejas de detectar, según análisis difundidos por MIT Technology Review.
El uso de modelos de inteligencia artificial está facilitando que delincuentes desarrollen campañas de phishing, fraudes empresariales y falsificaciones digitales realistas capaces de engañar tanto a usuarios comunes como a empresas.
Esto incrementa la frecuencia y el alcance de los ataques y plantea un riesgo inmediato de pérdidas financieras y filtraciones de datos a escala global.
Cómo la inteligencia artificial impulsa los nuevos ciberataques
A finales de 2022, los atacantes comenzaron a incorporar modelos de lenguaje de gran tamaño en programas de secuestro de datos y fraudes electrónicos. Un experimento dirigido desde la Universidad de Nueva York, conocido como PromptLock, demostró que la IA puede automatizar todas las etapas de un ataque, desde identificar archivos hasta redactar mensajes de extorsión personalizados.
Aunque PromptLock fue solo una prueba de laboratorio, expertos citados por MIT advierten que los ciberdelincuentes ya emplean herramientas comparables en situaciones reales.
Junto con el uso de servicios comerciales de IA, crece la preocupación por la expansión de modelos de código abierto faltos de salvaguardas técnicas. Estas variantes pueden manipularse fácilmente para elaborar código malicioso y sortear sistemas de protección.
Ashley Jess, exespecialista del Departamento de Justicia de Estados Unidos, sostiene que los delincuentes prefieren estos sistemas, ya que les permite adaptar sus estrategias sin restricciones.
Además, estudios de Anthropic indican que la IA logró automatizar hasta el 90% de las acciones en operaciones de espionaje informatizadas; sin embargo, los humanos siguen seleccionando los objetivos. “Estamos entrando en una era donde la barrera para operaciones cibernéticas sofisticadas ha caído y el ritmo de los ataques crecerá más de lo que muchos están preparados para afrontar”, señaló Jacob Klein, director de inteligencia de amenazas en Anthropic, en declaraciones recogidas por technologyreview.
El auge del phishing automatizado y las estafas personalizadas
Una de las áreas de mayor transformación es el phishing. Con la aparición de herramientas como ChatGPT, expertos estiman que al menos la mitad del correo no deseado ya se genera usando inteligencia artificial.
Entre abril de 2024 y abril de 2025, Microsoft bloqueó aproximadamente USD 4.000 millones en fraudes y transacciones ilícitas, una cifra atribuida en parte al aumento de contenidos producidos por IA, según reportes citados por Technology Review.
Además, académicos de la Universidad de Columbia y la Universidad de Chicago determinaron que para abril de 2025, más del 14% de los ataques selectivos por correo, elaborados con IA, duplicaron su incidencia respecto al año anterior.
La capacidad de personalización avanza: los atacantes segmentan a sus destinatarios y adaptan mensajes con detalles creíbles, complicando la labor de los filtros antispam y engañando con mayor facilidad a usuarios y empleados.
“La probabilidad de que los ciberataques sean cada vez más comunes y efectivos ya no es una posibilidad remota, sino una realidad”, subrayó Lorenzo Cavallaro, profesor del University College London, al medio.
Deepfakes: la nueva frontera de las estafas digitales
La sofisticación de las falsificaciones digitales realistas, conocidas como deepfakes, marca un nuevo desafío. La reproducción automatizada de voces e imágenes posibilita fraudes a gran escala.
Según Technology Review, un empleado de la firma Arup transfirió USD 25 millones a criminales luego de una videollamada con réplicas digitales de directivos de la empresa, evidenciando que hoy resulta sencillo manipular información visual y auditiva incluso en entornos profesionales.
Expertos como Henry Ajder advierten que la mejoría y el abaratamiento de estas técnicas garantizan su expansión. “Si hay dinero por ganar y la gente sigue cayendo en la trampa, los delincuentes continuarán explotando la IA”, explicó Ajder, según declaraciones recogidas por el sitio.
Cómo protegerse ante los ciberataques con IA
Frente al avance tecnológico, los especialistas insisten en que mantener prácticas de defensa básicas sigue siendo fundamental. Los programas de detección y los filtros de correo continúan bloqueando una porción considerable de los ataques, aunque la sofisticación de estos crece de manera constante.
Billy Leonard, responsable del Grupo de Análisis de Amenazas de Google, destaca la importancia de compartir información sobre incidentes y métodos nuevos, ya que esto ayuda a fortalecer las defensas globales. Por su parte, Microsoft procesa diariamente más de 100 billones de señales evaluadas por IA para identificar anomalías y actividades sospechosas.
Los expertos reconocen que la inteligencia artificial también puede ser una herramienta para enfrentar estas amenazas, facilitando la detección de patrones y respaldando a los equipos de seguridad.
No obstante, las capacidades defensivas todavía presentan limitaciones, y adaptarse continuamente es clave para minimizar los riesgos derivados de los ciberataques potenciados por IA.
En este escenario cambiante, la vigilancia y la actualización de los sistemas de seguridad representan la mejor defensa para usuarios y empresas ante la evolución constante de los ataques basados en inteligencia artificial.