Proponen que contenido IA esté identificado con “etiqueta”: Imágenes, videos, audios y hasta textos

Para combatir la desinformación. Entidades privadas y públicas deberían informar todo el tiempo si un contenido fue generado, aunque sea parcialmente, con inteligencia artificial

Guardar
El congresista Carlos Anderson propone
El congresista Carlos Anderson propone que todo contenido IA tenga una 'etiqueta' que lo identifique como tal, de cara a las elecciones del 2026. - Crédito Andina

La inteligencia artificial ya ha impactado en el Perú, pero su presencia de cara a la campaña electoral para las elecciones del 2026 crecerá aún más, dado su potencial uso para generar imágenes falsas y suplantas identidades.

Ante esto, el congresista Carlos Anderson ha presentado un proyecto de ley para que todo contenido generado con IA, inclusive si ha sido parcialmente usada, lleve una “etiqueta” que lo identifique como tal.

“Cualquier texto, imagen, audio, vídeo o producto audiovisual creado mediante tecnologías de inteligencia artificial (IA) para su posterior difusión a través de medios de comunicación y redes sociales deberá contener una etiqueta explicita de IA que indique que fue generado total o parcialmente por dichas tecnologías”, señala el proyecto de ley.

Congresista Anderson revela existencia de
Congresista Anderson revela existencia de trabajadores fantasmas. Foto: Canal N

Propuesta contra la desinformación

La propuesta de Anderson cae no solo en las imágenes y videos, sino también en los audios y textos. Según señala la iniciativa, esto se haría con “fines de seguridad, con el propósito de evitar la propagación de desinformación, suplantaciones de identidad o fraudes, así como asegurar que los usuarios puedan distinguir claramente entre contenido real y sintético”.

“Todo proveedor de servicio de información de internet, nacional o extranjero, al dirigir su producto o resultado en territorio nacional debe cumplir con las normas nacionales y etiquetar el contenido que producen. Los proveedores que ofrecen funciones como la descarga, la copia o la exportación de materiales generados por IA deben asegurarse de que se incluyan etiquetas explícitas en los archivos”, aclara.

Pero también las plataformas que distribuyen este contenido deben regular la difusión de materiales generados por IA ofreciendo funciones de identificación y recordando a los usuarios que revelen si sus publicaciones contienen contenido generado por IA.

Los deepfake han sido usados
Los deepfake han sido usados también en suplantación de empresarios para estafar a personas. - Crédito Andina

Así, no solo esto aplicaría para empresas privadas y marcas, que ya usan estas herramientas constantemente, sino también entidades públicas. Es fácil identifica que entidades como el Banco de la Nación hacen uso de la IA para generar contenido para redes sociales. Nada más basta recordar la victoria del pan con chicharrón en el Mundial de Desayunos de Ibai para verificar que varias entidades públicas usaban la imagen de un pan con chicharrón generada con IA para hablar del tema.

Crece la preocupación por la IA

Ha habido un gran avance con respecto a las capacidades de la IA en los últimos meses y avanza a pasos agigantados. Pero también tiene su uso cuestionable. “La capacidad de los últimos modelos de IA para imitar con notable precisión voces humanas y expresiones faciales ha dado lugar a la aparición de los denominados deepfakes. Estas simulaciones hiperrealistas presentan a personas reales diciendo o haciendo cosas que nunca ocurrieron, y han sido utilizadas con fines engañosos, como la difusión de noticias falsas o la manipulación de la opinión pública, especialmente en contextos políticos o electorales”, alerta el texto del proyecto de ley.

Así, la facilidad con la que estos contenidos se producen y difunden a través de plataformas digitales “representa una amenaza seria para la integridad de la información y la confianza en los medios digitales. El uso malicioso de contenido generado por IA también ha alcanzado el ámbito del fraude económico y la suplantación de identidad. Existen casos documentados en los que ciberdelincuentes han replicado la voz o la imagen de ejecutivos para engañar a empleados y conseguir transferencias de dinero”, informa Anderson.

La preocupación de la iniciativa del congresista crece cuando se trata de lo que se viene con las elecciones del 2026. “En el plano democrático, las implicancias pueden ser aún más graves. La circulación de deepfakes durante campañas electorales —donde candidatos son falsamente representados en situaciones comprometedoras— distorsiona el proceso deliberativo, socava la legitimidad institucional y mina la confianza ciudadana. Esta amenaza ha sido registrada en diversos países durante los últimos años, y su potencial para alterar resultados electorales o generar inestabilidad política constituye un motivo de seria preocupación", advierte.