Etiquetar los titulares como generados por IA reduce la credibilidad del contenido incluso si es real, según un estudio

Un análisis difundido por PNAS Nexus revela que señalar la intervención de sistemas automatizados en encabezados provoca mayor desconfianza, disminuyendo la percepción de veracidad y la intención de compartir la información, incluso cuando lo publicado es auténtico y supervisado

Guardar

El análisis difundido por la revista científica PNAS Nexus revela que la presencia de etiquetas que señalan la intervención de sistemas automatizados en los titulares genera dudas entre los lectores acerca de la veracidad y confiabilidad del contenido, incluso cuando la información es auténtica y ha pasado por supervisión humana. Según informó PNAS Nexus, la percepción de los usuarios frente a los titulares que muestran la marca de haber sido generados por inteligencia artificial (IA) tiende a inclinarse hacia el escepticismo, lo cual impacta también en la intención de compartir dichos contenidos en redes u otros canales, aunque estos sean verídicos o escritos por personas.

El medio PNAS Nexus detalló que con la proliferación de herramientas de IA capaces de crear textos e imágenes de modo sencillo y automatizado, las plataformas digitales han comenzado a implementar sistemas de etiquetado para indicar a los usuarios cuándo un contenido ha sido producido o alterado mediante inteligencia artificial. Plataformas como Meta, YouTube, Google y TikTok disponen actualmente de mecanismos para informar de manera visible si un contenido proviene de sistemas artificiales. De acuerdo con la publicación, la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) promueve el uso de un protocolo específico que ya adoptaron relevantes empresas tecnológicas como OpenAI, Microsoft, Intel y Adobe, lo que apunta a una tendencia internacional hacia el etiquetado como herramienta informativa y de transparencia.

PNAS Nexus también reportó que el marco regulatorio en Europa, y en particular en España tras la aprobación de la ley de gobernanza de IA, establece que etiquetar el contenido generado artificialmente es una pauta obligatoria. El objetivo reside en alertar al usuario sobre la naturaleza sintética de algunos materiales, contribuyendo así a prevenir la desinformación y a aclarar el origen de los materiales digitales que circulan. Esta normatividad reconoce la importancia de actuar ante la creciente sofisticación de sistemas que pueden confeccionar noticias falsas o imágenes manipuladas con apariencia realista.

El estudio difundido por PNAS Nexus estuvo basado en dos experimentos realizados en Estados Unidos y Reino Unido, en los que se evaluó el impacto de las etiquetas de IA en la percepción de titulares en línea. Según se explica en el informe, el primer experimento analizó hasta qué punto el etiquetado influye en la exactitud que los participantes atribuyen a los titulares y en su disposición para difundirlos. Por su parte, el segundo experimento exploró las razones detrás de este aumento de escepticismo y cómo opera en la mente de los encuestados.

En los resultados recopilados por la revista, se observó que los participantes diferenciaron entre el contenido falso y aquel marcado únicamente como generado por IA; sin embargo, la simple existencia de una etiqueta de IA restó credibilidad a las publicaciones y redujo su potencial de compartirlas. El informe sostiene que esta reacción se atribuye a la percepción generalizada de que los textos realizados por sistemas automatizados carecen de una revisión o supervisión humana que garantice su exactitud.

La desconfianza originada por estas etiquetas, consigna PNAS Nexus, se manifestó en todos los casos analizados, sin distinguir si los titulares representaban información verdadera, falsa, producida por humanos o por IA. Bastó únicamente incorporar la indicación de automatización para que los lectores experimentaran dudas sobre el contenido.

No obstante, el análisis difundido remarca que, aunque la etiqueta de "generado por IA" tiene un efecto negativo en la credibilidad percibida, este efecto resulta "tres veces menor" en comparación con el etiquetado directo que califica un titular como falso. Según PNAS Nexus, si se trata de un contenido falso creado por sistemas artificiales, la recomendación es emplear la etiqueta de "falso" y no sólo la de "generado por IA", ya que esto resulta más efectivo al identificar información errónea.

El informe publicado por PNAS Nexus insiste en la necesidad de que las etiquetas relacionadas con IA sean utilizadas con prudencia. Subraya la conveniencia de explicitar con precisión qué significa cada etiqueta, para evitar que surja confusión entre los navegantes de la red. La investigación advierte sobre los posibles efectos indeseados de aplicar estas marcas de manera generalizada, ya que pueden afectar la percepción de piezas legítimas, fiables o incluso beneficiosas para los usuarios, solo por haber sido generadas por IA.

El equipo de PNAS Nexus apunta que el despliegue de estas herramientas debe realizarse con transparencia, priorizando la clara comunicación sobre el alcance y los límites de la tecnología aplicada al contenido. De acuerdo con el estudio, "estar expuesto a etiquetas de IA puede actuar como una especie de advertencia de que el entorno en línea está saturado de contenido generado por IA y no es un espacio confiable para adquirir información confiable". Así, la investigación solicita una evaluación cuidadosa de las dimensiones sociales y psicológicas asociadas al etiquetado, para que no terminen perjudicando la confianza del público en la información digital, aun cuando la misma sea auténtica y verificada, reafirma el medio PNAS Nexus.