El engaño de las caras blancas creadas por inteligencia artificial, esta es la historia

Una reciente investigación de Psychological Science apunta a desafíos en la identificación de rostros caucásicos auténticos ya que las personas no se dan cuenta que han sido engañadas

Compartir
Compartir articulo
Un grupo de 124 adultos participa en un estudio calificando su nivel de seguridad al distinguir entre imágenes artificiales y genuinas de personas. (Miller et al)
Un grupo de 124 adultos participa en un estudio calificando su nivel de seguridad al distinguir entre imágenes artificiales y genuinas de personas. (Miller et al)

Las imágenes generadas por IA alcanzan un nivel de realismo sin precedentes, resultando casi indistinguibles de las fotografías auténticas. Expertos sostienen que discernir entre los rostros creados artificialmente y los reales es ahora más desafiante, afectado por sesgos tanto humanos como de los propios algoritmos.

Un estudio reciente publicado en la revista Psychological Science revela que individuos pueden confundir con mayor probabilidad rostros blancos generados por inteligencia artificial (IA) con rostros reales, comparado con la identificación de verdaderas fotografías de personas blancas. Este fenómeno resalta una dificultad específica para discernir entre imágenes auténticas y las creadas por tecnología avanzada.

En una colaboración internacional de investigadores provenientes de universidades en Australia, los Países Bajos y el Reino Unido, se diseñó un experimento que involucró a 124 adultos blancos. A estos se les encomendó la tarea de identificar si una serie de rostros eran reales o artificiales y, acto seguido, debían asignar una puntuación a su nivel de certeza respecto a cada elección, utilizando una escala de 100 puntos.

Los organizadores del estudio optaron por mostrar a los participantes imágenes de rostros caucásicos para limitar el efecto del “sesgo de reconocimiento de la propia raza” que describe la tendencia de individuos de determinados grupos étnicos y culturales a recordar con menos eficacia las caras de personas que pertenecen a otros grupos demográficos.

Investigadores de Australia, Países Bajos y Reino Unido colaboraron en el estudio sobre IA. (Miller et al)
Investigadores de Australia, Países Bajos y Reino Unido colaboraron en el estudio sobre IA. (Miller et al)

“Sorprendentemente, los rostros blancos de la IA pueden pasar de manera convincente como más reales que los rostros humanos, y las personas no se dan cuenta de que están siendo engañadas”, explicaron los investigadores en su artículo.

Los participantes clasificaron erróneamente un 66 por ciento de las imágenes de IA como humanos fotografiados, frente a apenas la mitad de las fotos reales. Mientras tanto, la capacidad de los mismos participantes blancos para discernir entre personas de color reales y artificiales era aproximadamente de 50-50.

En un segundo experimento, 610 participantes calificaron las mismas imágenes usando 14 atributos que contribuían a lo que las hacía parecer humanas, sin saber que algunas fotos eran falsas. De esos atributos, la proporcionalidad de los rostros, la familiaridad, la memorabilidad y la percepción de ojos realistas ocuparon los primeros lugares para los sujetos de prueba.

El equipo denominó esta tendencia recién identificada de atribuir excesivamente erróneamente los rostros generados artificialmente (específicamente, los rostros blancos) como “hiperrealismo de la IA”.

Las significativas discrepancias estadísticas observadas se atribuyen a los sesgos algorítmicos conocidos que surgen en el desarrollo de la inteligencia artificial. Los sistemas de IA suelen ser entrenados con un número más elevado de sujetos blancos en comparación con personas de color (POC).

Las pruebas del estudio internacional apuntan a un sesgo cognitivo en la identificación de rostros generados por inteligencia artificial REUTERS/Dado Ruvic/Ilustración/Foto de Archivo
Las pruebas del estudio internacional apuntan a un sesgo cognitivo en la identificación de rostros generados por inteligencia artificial REUTERS/Dado Ruvic/Ilustración/Foto de Archivo

Esta práctica resulta en una mayor eficacia de la IA a la hora de crear rostros blancos creíbles, así como en su capacidad para reconocerlos con precisión a través de técnicas de reconocimiento facial.

Esta disparidad tiene implicaciones que pueden extenderse a múltiples ámbitos, incluyendo situaciones científicas, sociales y psicológicas. Los efectos podrían manifestarse en escenarios diversos que van desde el robo de identidad y reconocimiento facial, sin olvidar las preocupaciones fundamentales relacionadas con la privacidad.

“Nuestros resultados explican por qué ocurre el hiperrealismo de la IA y muestran que no todas las caras de la IA parecen igualmente realistas, con implicaciones para la proliferación de prejuicios sociales y para la identificación pública errónea de la IA”, escribió el equipo en su artículo.

Es importante mencionar que la muestra utilizada en el estudio reciente fue reducida y bastante restringida en cuanto a su diversidad, lo que subraya la necesidad de investigaciones más amplias para una comprensión cabal del impacto y la magnitud de estos sesgos.

A pesar de estas limitaciones, persiste la realidad de que aún se desconoce mucho respecto a las consecuencias que el hiperrealismo de la inteligencia artificial podría tener en las poblaciones y en el juicio en la cotidianidad.