
La proliferación de contenidos generados por IA ha hecho que la detección de fraudes y falsificaciones digitales sea cada vez más desafiante, especialmente para ciertos grupos de edad. Una prueba reciente desarrollada por The Care Side, una entidad australiana de cuidado domiciliario, evidencia que los menores de 29 años identifican la mayoría de los deepfakes, mientras que los mayores de 65 aciertan solo en la mitad de los casos, muchas veces por simple azar.
Influencia de la edad y el conocimiento digital en la detección de deepfakes
El test de The Care Side, en el que participaron más de 3.000 personas, muestra que la capacidad para distinguir contenidos generados por IA varía según la edad y el nivel de formación digital. Mientras los jóvenes reconocen ocho de cada 10 fraudes, los adultos mayores presentan mayores dificultades.
PUBLICIDAD
Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos y, en numerosas ocasiones, sus aciertos se deben al azar más que a un razonamiento consciente.
Sin embargo, expertos como Hervé Lambert, de Panda Security, sostienen que el riesgo no es exclusivo de una generación, ya que la falta de concentración y la evolución de las amenazas afectan a todos los usuarios. Lambert dijo a El País que la inteligencia artificial aprovecha los momentos de menor atención para burlar a las personas, y subraya que la educación digital es clave, más allá de la edad.
PUBLICIDAD

“Creo que es un error limitar el problema a una cuestión generacional. La IA es muy inteligente y sabe perfectamente que hay contextos y momentos del día donde vamos a tener muchísima menos concentración en una cosa y eso lo utiliza muy bien”, sostuvo.
Marti DeLiema, del Centro de Envejecimiento Saludable e Innovación de la Universidad de Minnesota, coincide en que la IA ha cambiado radicalmente el panorama del fraude para toda la sociedad.
PUBLICIDAD
Por su parte, Josep Albors, de ESET España, advierte que los delincuentes explotan la IA para crear campañas de fraude cada vez más convincentes, utilizando imágenes, audios y videos difíciles de distinguir de los reales.

“Estamos viendo videos muy bien en generados con unas voces idénticas a las personas que suplantan”, dijo Albors durante la última edición de los premios de comunicación de su compañía global de ciberseguridad.
PUBLICIDAD
Cómo detectar fraudes con IA: texto, imagen, audio y video
El estudio de The Care Side también identifica recomendaciones concretas en función del tipo de mensaje falso. La sofisticación de los deepfakes y otros fraudes digitales exige prestar atención a detalles específicos en distintos formatos. En los mensajes de texto, conviene desconfiar de saludos genéricos, plazos urgentes, solicitudes de datos personales o transferencias sin verificación, y errores de redacción.

En imágenes, las señales de alerta incluyen simetrías inusuales en los rostros, manos deformes o borrosas, texturas excesivamente suaves y fondos poco coherentes.
PUBLICIDAD
En el caso de los audios, las voces artificiales suelen presentar pausas no naturales, ritmos robóticos, cambios abruptos en el tono, ruidos extraños o respuestas descoordinadas.
Los videos, por su parte, pueden evidenciar movimientos faciales incoherentes, desincronización de labios y párpados, o gestos poco humanos.
PUBLICIDAD
Educación digital y herramientas: claves para enfrentar los riesgos de la IA
Especialistas resaltan que la vulnerabilidad frente a los deepfakes y fraudes con IA se debe, en gran medida, a la falta de conocimiento, concienciación y formación, especialmente cuando se realizan varias tareas a la vez.

Aunque existen herramientas para detectar la participación de la IA en la creación de contenidos, Hervé Lambert considera que solo limitan el riesgo, sin eliminarlo por completo.
PUBLICIDAD
Por eso, la educación en escenarios reales y la práctica constante para identificar señales de alerta resultan imprescindibles. Josep Albors lamenta además la tendencia de los usuarios a no contrastar la información en fuentes fiables, lo que aumenta la exposición a engaños.
Qué es un deepfake y por qué representa un riesgo digital
Un deepfake es un contenido digital manipulado mediante inteligencia artificial, que utiliza técnicas avanzadas de aprendizaje automático para superponer rostros, voces o movimientos de una persona sobre imágenes, videos o audios, logrando resultados extremadamente realistas.
PUBLICIDAD

Este tipo de tecnología permite crear simulaciones convincentes en las que una persona parece decir o hacer cosas que nunca ocurrieron en la realidad.
El auge de los deepfakes ha generado preocupación porque, aunque pueden emplearse en entretenimiento o publicidad, también facilitan la difusión de fraudes, desinformación y suplantaciones de identidad. La dificultad para distinguirlos de contenidos auténticos convierte a los deepfakes en una amenaza creciente para la confianza y la seguridad digital.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
La era de los robotaxis inicia: se espera que hagan 15 millones de recorridos en 2026
Los modelos Cybercab de Tesla funcionan de manera totalmente autónoma y no cuentan con volante ni pedales

Qué gafas sirven para ver el eclipse solar: los modelos certificados más populares en Amazon
El eclipse solar total de agosto de 2026 ya impulsa la búsqueda de gafas homologadas para observar el fenómeno de forma segura

Lo nuevo de Google promete llevar la inteligencia artificial a todo lo que haces en el celular
Durante su evento anual Google I/O se presentarán avances en Gemini, Android, Chrome y más
Crece la venta de laptops gamer en Perú: ya no son exclusivas para videojuegos y más profesionales la usan
Equipos pensados originalmente para videojuegos ahora son utilizados en ingeniería, diseño y edición de video

Elegir qué ponerse será más fácil: Google Fotos transforma tus imágenes en un armario virtual
La herramienta utiliza inteligencia artificial para identificar prendas, organizarlas y crear outfits digitales desde el celular



