¿Puedes detectar un deepfake?: un test revela que la edad influye en la precisión

Mientras los jóvenes reconocen ocho de cada 10 fraudes, los adultos mayores presentan mayores dificultades

Guardar
Las personas mayores de 65
Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos. (Imagen ilustrativa Infobae)

La proliferación de contenidos generados por IA ha hecho que la detección de fraudes y falsificaciones digitales sea cada vez más desafiante, especialmente para ciertos grupos de edad. Una prueba reciente desarrollada por The Care Side, una entidad australiana de cuidado domiciliario, evidencia que los menores de 29 años identifican la mayoría de los deepfakes, mientras que los mayores de 65 aciertan solo en la mitad de los casos, muchas veces por simple azar.

Influencia de la edad y el conocimiento digital en la detección de deepfakes

El test de The Care Side, en el que participaron más de 3.000 personas, muestra que la capacidad para distinguir contenidos generados por IA varía según la edad y el nivel de formación digital. Mientras los jóvenes reconocen ocho de cada 10 fraudes, los adultos mayores presentan mayores dificultades.

Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos y, en numerosas ocasiones, sus aciertos se deben al azar más que a un razonamiento consciente.

Sin embargo, expertos como Hervé Lambert, de Panda Security, sostienen que el riesgo no es exclusivo de una generación, ya que la falta de concentración y la evolución de las amenazas afectan a todos los usuarios. Lambert dijo a El País que la inteligencia artificial aprovecha los momentos de menor atención para burlar a las personas, y subraya que la educación digital es clave, más allá de la edad.

La proliferación de contenidos generados
La proliferación de contenidos generados por IA ha hecho que la detección de fraudes digitales sea cada vez más desafiante. (Imagen ilustrativa Infobae)

“Creo que es un error limitar el problema a una cuestión generacional. La IA es muy inteligente y sabe perfectamente que hay contextos y momentos del día donde vamos a tener muchísima menos concentración en una cosa y eso lo utiliza muy bien”, sostuvo.

Marti DeLiema, del Centro de Envejecimiento Saludable e Innovación de la Universidad de Minnesota, coincide en que la IA ha cambiado radicalmente el panorama del fraude para toda la sociedad.

Por su parte, Josep Albors, de ESET España, advierte que los delincuentes explotan la IA para crear campañas de fraude cada vez más convincentes, utilizando imágenes, audios y videos difíciles de distinguir de los reales.

Las voces artificiales suelen presentar
Las voces artificiales suelen presentar pausas no naturales, ritmos robóticos, etc. (Imagen Ilustrativa Infobae)

“Estamos viendo videos muy bien en generados con unas voces idénticas a las personas que suplantan”, dijo Albors durante la última edición de los premios de comunicación de su compañía global de ciberseguridad.

Cómo detectar fraudes con IA: texto, imagen, audio y video

El estudio de The Care Side también identifica recomendaciones concretas en función del tipo de mensaje falso. La sofisticación de los deepfakes y otros fraudes digitales exige prestar atención a detalles específicos en distintos formatos. En los mensajes de texto, conviene desconfiar de saludos genéricos, plazos urgentes, solicitudes de datos personales o transferencias sin verificación, y errores de redacción.

Un deepfake es un contenido
Un deepfake es un contenido digital manipulado mediante inteligencia artificial. (Imagen ilustrativa Infobae)

En imágenes, las señales de alerta incluyen simetrías inusuales en los rostros, manos deformes o borrosas, texturas excesivamente suaves y fondos poco coherentes.

En el caso de los audios, las voces artificiales suelen presentar pausas no naturales, ritmos robóticos, cambios abruptos en el tono, ruidos extraños o respuestas descoordinadas.

Los videos, por su parte, pueden evidenciar movimientos faciales incoherentes, desincronización de labios y párpados, o gestos poco humanos.

Educación digital y herramientas: claves para enfrentar los riesgos de la IA

Especialistas resaltan que la vulnerabilidad frente a los deepfakes y fraudes con IA se debe, en gran medida, a la falta de conocimiento, concienciación y formación, especialmente cuando se realizan varias tareas a la vez.

El deepfake permite simular que
El deepfake permite simular que una persona dice o hace cosas que nunca ocurrieron. (Imagen ilustrativa Infobae)

Aunque existen herramientas para detectar la participación de la IA en la creación de contenidos, Hervé Lambert considera que solo limitan el riesgo, sin eliminarlo por completo.

Por eso, la educación en escenarios reales y la práctica constante para identificar señales de alerta resultan imprescindibles. Josep Albors lamenta además la tendencia de los usuarios a no contrastar la información en fuentes fiables, lo que aumenta la exposición a engaños.

Qué es un deepfake y por qué representa un riesgo digital

Un deepfake es un contenido digital manipulado mediante inteligencia artificial, que utiliza técnicas avanzadas de aprendizaje automático para superponer rostros, voces o movimientos de una persona sobre imágenes, videos o audios, logrando resultados extremadamente realistas.

Los delincuentes explotan la IA
Los delincuentes explotan la IA para crear campañas de fraude cada vez más convincentes. (Imagen Ilustrativa Infobae)

Este tipo de tecnología permite crear simulaciones convincentes en las que una persona parece decir o hacer cosas que nunca ocurrieron en la realidad.

El auge de los deepfakes ha generado preocupación porque, aunque pueden emplearse en entretenimiento o publicidad, también facilitan la difusión de fraudes, desinformación y suplantaciones de identidad. La dificultad para distinguirlos de contenidos auténticos convierte a los deepfakes en una amenaza creciente para la confianza y la seguridad digital.