
La proliferación de contenidos generados por IA ha hecho que la detección de fraudes y falsificaciones digitales sea cada vez más desafiante, especialmente para ciertos grupos de edad. Una prueba reciente desarrollada por The Care Side, una entidad australiana de cuidado domiciliario, evidencia que los menores de 29 años identifican la mayoría de los deepfakes, mientras que los mayores de 65 aciertan solo en la mitad de los casos, muchas veces por simple azar.
Influencia de la edad y el conocimiento digital en la detección de deepfakes
El test de The Care Side, en el que participaron más de 3.000 personas, muestra que la capacidad para distinguir contenidos generados por IA varía según la edad y el nivel de formación digital. Mientras los jóvenes reconocen ocho de cada 10 fraudes, los adultos mayores presentan mayores dificultades.
Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos y, en numerosas ocasiones, sus aciertos se deben al azar más que a un razonamiento consciente.
Sin embargo, expertos como Hervé Lambert, de Panda Security, sostienen que el riesgo no es exclusivo de una generación, ya que la falta de concentración y la evolución de las amenazas afectan a todos los usuarios. Lambert dijo a El País que la inteligencia artificial aprovecha los momentos de menor atención para burlar a las personas, y subraya que la educación digital es clave, más allá de la edad.

“Creo que es un error limitar el problema a una cuestión generacional. La IA es muy inteligente y sabe perfectamente que hay contextos y momentos del día donde vamos a tener muchísima menos concentración en una cosa y eso lo utiliza muy bien”, sostuvo.
Marti DeLiema, del Centro de Envejecimiento Saludable e Innovación de la Universidad de Minnesota, coincide en que la IA ha cambiado radicalmente el panorama del fraude para toda la sociedad.
Por su parte, Josep Albors, de ESET España, advierte que los delincuentes explotan la IA para crear campañas de fraude cada vez más convincentes, utilizando imágenes, audios y videos difíciles de distinguir de los reales.

“Estamos viendo videos muy bien en generados con unas voces idénticas a las personas que suplantan”, dijo Albors durante la última edición de los premios de comunicación de su compañía global de ciberseguridad.
Cómo detectar fraudes con IA: texto, imagen, audio y video
El estudio de The Care Side también identifica recomendaciones concretas en función del tipo de mensaje falso. La sofisticación de los deepfakes y otros fraudes digitales exige prestar atención a detalles específicos en distintos formatos. En los mensajes de texto, conviene desconfiar de saludos genéricos, plazos urgentes, solicitudes de datos personales o transferencias sin verificación, y errores de redacción.

En imágenes, las señales de alerta incluyen simetrías inusuales en los rostros, manos deformes o borrosas, texturas excesivamente suaves y fondos poco coherentes.
En el caso de los audios, las voces artificiales suelen presentar pausas no naturales, ritmos robóticos, cambios abruptos en el tono, ruidos extraños o respuestas descoordinadas.
Los videos, por su parte, pueden evidenciar movimientos faciales incoherentes, desincronización de labios y párpados, o gestos poco humanos.
Educación digital y herramientas: claves para enfrentar los riesgos de la IA
Especialistas resaltan que la vulnerabilidad frente a los deepfakes y fraudes con IA se debe, en gran medida, a la falta de conocimiento, concienciación y formación, especialmente cuando se realizan varias tareas a la vez.

Aunque existen herramientas para detectar la participación de la IA en la creación de contenidos, Hervé Lambert considera que solo limitan el riesgo, sin eliminarlo por completo.
Por eso, la educación en escenarios reales y la práctica constante para identificar señales de alerta resultan imprescindibles. Josep Albors lamenta además la tendencia de los usuarios a no contrastar la información en fuentes fiables, lo que aumenta la exposición a engaños.
Qué es un deepfake y por qué representa un riesgo digital
Un deepfake es un contenido digital manipulado mediante inteligencia artificial, que utiliza técnicas avanzadas de aprendizaje automático para superponer rostros, voces o movimientos de una persona sobre imágenes, videos o audios, logrando resultados extremadamente realistas.

Este tipo de tecnología permite crear simulaciones convincentes en las que una persona parece decir o hacer cosas que nunca ocurrieron en la realidad.
El auge de los deepfakes ha generado preocupación porque, aunque pueden emplearse en entretenimiento o publicidad, también facilitan la difusión de fraudes, desinformación y suplantaciones de identidad. La dificultad para distinguirlos de contenidos auténticos convierte a los deepfakes en una amenaza creciente para la confianza y la seguridad digital.
Últimas Noticias
Presentan dispositivo que permite transmitir el audio de un televisor a varios auriculares
Sennheiser presentó el RS 275, un transmisor digital con tecnología que permite enviar el audio del televisor a varios auriculares simultáneamente

El mensaje de Steve Jobs que marcó un antes y un después sobre el tiempo y la autenticidad
El empresario utilizó su experiencia personal como ejemplo de superación y audacia, animando a los jóvenes a no posponer sus sueños ni conformarse con rutinas impuestas

Cómo es Haven-1, la primera estación espacial privada del mundo
La empresa estadounidense Vast Space, con el apoyo de SpaceX, ultima el lanzamiento de Haven-1, con el objetivo de tomar la posta de la Estación Espacial Internacional

¿Tu cargador se calienta demasiado?: así puedes solucionarlo en pocos pasos
Si el móvil se carga más lento de lo habitual o notas que el adaptador calienta en exceso, el cable podría estar fallando

La advertencia de Stephen Hawking sobre el futuro de la humanidad: “tenemos que seguir explorando el espacio”
Según el científico, la permanencia exclusiva de la humanidad en la Tierra es un riesgo para su continuidad a largo plazo



