Mientras Lula pide una IA del sur global, Brasil registra un preocupante aumento de los deepfakes

El presidente solicitó a la OIT y a la ONU crear ese proyecto luego de acusar a los países ricos de crear inteligencia artificial para “intentar manipular al resto de la humanidad”

Guardar

Nuevo

El presidente de Brasil Luiz Inácio Lula da Silva (EFE/Andre Borges)
El presidente de Brasil Luiz Inácio Lula da Silva (EFE/Andre Borges)

En su discurso del jueves ante la audiencia de la Organización Internacional del Trabajo (OIT) en Ginebra, Suiza, el presidente brasileño Lula acusó a los países ricos de crear inteligencia artificial (IA) para “intentar manipular al resto de la humanidad”. Por esto, Lula pidió a la OIT y a la ONU que creen un proyecto para la “Inteligencia Artificial del Sur Global”, sin dar detalles de a qué se refiere con esta diferenciación. Las declaraciones del presidente brasileño llegaron poco antes a su participación en la reunión del G7 en Italia, donde el tema de la inteligencia artificial fue uno de los que centró el debate entre los siete países miembros del grupo. Incluso el papa Francisco intervino sobre el tema, advirtiendo de los riesgos. “La inteligencia artificial podría traer consigo una mayor injusticia entre las naciones avanzadas y las naciones en desarrollo, entre las clases sociales dominantes y las clases sociales oprimidas, poniendo así en peligro la posibilidad de una cultura del encuentro en favor de una cultura del descarte”, dijo el Papa.

En Brasil, la IA está más extendida y tecnológicamente más avanzada de lo que se cree. El informe 2023 sobre Inteligencia Artificial del Distrito, plataforma líder de tecnologías emergentes en América Latina, reveló que Brasil se destaca por tener la mayor concentración de empresas y volumen de inversiones en IA, representando el 73,65% del total de startups, posicionándose como líder regional en desarrollo e innovación en América Latina. Las startups brasileñas de IA recibieron 2.000 millones de dólares en inversiones en 2022. Incluso gigantes de la electrónica de telecomunicaciones como Motorola apuestan por el gigante latinoamericano, considerado uno de los polos más prometedores del mundo en el sector. La empresa estadounidense ha invertido 25 millones de reales, 4,65 millones de dólares, en la investigación de la Universidad Federal de Amazonas (UFAM), que colabora también en el proyecto con las universidades de Acre, Campinas y Pernambuco. Pocos saben que Motorola hace en Brasil toda la parte de detección de malware, calidad de imagen HDR (High dynamic range, es decir de Alto rango dinámico) con técnicas de inteligencia artificial, procesamiento de imágenes, seguridad del sistema Android y el centro de inteligencia artificial.

Sin embargo, la otra cara de la moneda también muestra un Brasil donde la IA se utiliza de forma fraudulenta. Según datos de Sumsub, empresa tecnológica que ofrece plataformas para verificar fraudes, el gigante latinoamericano se encuentra entre los 10 países del mundo con mayor número de deepfakes detectados en el primer trimestre de 2024. De 2023 a 2024, crecieron un 840%. Los deepfakes, es decir, la adulteración de fotos y videos a través de la IA, se han convertido en una amenaza global porque su total capacidad de manipulación está en el origen de miles de fraudes y delitos como el bullying y el chantaje sexual por dinero. En cuanto a Brasil, en los últimos meses han aparecido anuncios fraudulentos en Meta utilizando la voz y el rostro de un conocido diputado bolsonarista, Nikolas Ferreira, promocionando falsas ofertas para comprar dispositivos Starlink o incluso relojes Rolex. Mediante el engaño de estos deepfakes, el lector desprevenido es dirigido a páginas falsas que imitan a las oficiales y pierde miles de reales. También se utilizaron deepfakes que manipulaban la imagen de un conocido empresario brasileño, Luciano Hang, para falsas recaudaciones de fondos para los damnificados del estado de Rio Grande Sul, devastado por las inundaciones.

Lula junto al papa Francisco en el G7. El Sumo Pontífice participó de un panel sobre inteligencia artificial (Vatican Media/­Handout via REUTERS)
Lula junto al papa Francisco en el G7. El Sumo Pontífice participó de un panel sobre inteligencia artificial (Vatican Media/­Handout via REUTERS)

También existe el problema de la exposición de menores y los prejuicios raciales. Según un informe publicado el lunes por la organización no gubernamental Human Rights Watch, se están utilizando fotos de niños y adolescentes brasileños para crear herramientas de inteligencia artificial sin su conocimiento ni consentimiento. El análisis concluyó que LAION-5b, un conjunto de datos utilizado para entrenar populares herramientas de inteligencia artificial y construido a partir de información extraída de Internet, tiene enlaces a fotos identificables de niños. Además de las fotos, la plataforma también facilita los nombres de algunos niños en los subtítulos o en la URL donde está almacenada la foto. En muchos casos, las identidades son rastreables, con información sobre cuándo y dónde estaba el niño en el momento de la foto. En total, se descubrieron 170 fotos de niños de diez estados brasileños. Sin embargo, según la ONG, esto no es más que una pequeña muestra del problema, que parece ser gigantesco. LAION-5b tiene 5.850 millones de imágenes y leyendas y en el informe sólo se analizó el 0,0001% de la base de datos.

También ha llegado a Brasil, aunque de momento en modo de prueba, la herramienta de IA de WhatsApp que permite crear figuritas con un simple comando de texto. A pesar de que la aplicación bloquea palabras como “niño”, “cocaína” y “anorexia”, permite crear figuritas de personas sosteniendo armas de fuego, incluso de gran calibre como fusiles Kalashnikov. Además, como los dibujos generados por la IA se simplifican al máximo, dando el efecto de representar a niños, hay muchas figuritas que muestran a niños negros con armas en las manos. Este es un tema delicado en Brasil, donde en las favelas muchos niños usan armas.

En redes sociales como Instagram, los expertos también han detectado fallos de la IA que pueden alimentar los prejuicios raciales. Por ejemplo, algunos filtros aplicados a personas negras pueden borrar sus rostros y difuminar el pelo encrespado. Con efectos que simulan el maquillaje, como “Textura suavizante de la piel” (Skin smoothing texture en inglés), el rostro se vuelve grisáceo e incluso se borra. Para Silvana Bahia, coordinadora de PretaLab, un proyecto que fomenta la producción tecnológica por parte de mujeres negras e indígenas, “usamos algoritmos para intentar predecir el futuro, pero con datos del pasado, donde la gente negra está estereotipada. ¿Cómo va a ser este futuro más inclusivo si nos fijamos en datos donde se repiten los estereotipos?”. La inteligencia artificial se genera mediante algoritmos de lectura de imágenes, entrenados a partir de una base de datos que contiene miles de imágenes. Cuantas más imágenes lee el programa, más las reconoce. El problema es que en esta base de datos hay pocas caras negras. En resumen, en Brasil, donde según el Censo de 2022 el 55,5% de la población se definía como negra o mestiza, la IA parece reforzar los estereotipos raciales, como también denunció el diario Folha de São Paulo, que utilizando la función ChatGPT pidió generar imágenes de una mujer brasileña. Lo que salió fue una mujer de piel bronceada con joyas indígenas en medio de una selva tropical. Según los expertos, lo que provoca este estereotipo es la falta de datos diferenciados disponibles sobre el tema. Se trata de un fallo no sólo de los modelos de inteligencia artificial de OpenAI. Incluso Google desactivó la capacidad de su modelo Gemini para generar imágenes, después de que la plataforma ofreciera representaciones con inexactitudes históricas como soldados nazis asiáticos y negros.

Las próximas elecciones municipales que se celebrarán en Brasil en octubre son también una importante prueba de fuego para el país en lo que respecta al posible mal uso de la IA. Según la empresa tecnológica Sumsub, de 2023 a 2024 se ha producido un aumento del 245% en la aparición de deepfakes en todo el mundo, con un crecimiento múltiple en algunos países donde se han celebrado o se celebrarán elecciones en 2024, como Estados Unidos, India, Indonesia, México y Sudáfrica. La polarización política en Brasil podría amplificarse, desde los niveles más simples de comunicación, como los sticker de WhatsApp que ya circulan mostrando dibujos de un Bolsonaro hosco y de Lula con corazones y flores, hasta la desinformación estratégica que corre el riesgo de ser utilizada por políticos brasileños pero también por actores extranjeros con la intención de utilizar las municipales como prueba para las presidenciales de 2026. Precisamente por eso, el Tribunal Superior Electoral (TSE) prohibió el uso de deepfakes durante la campaña electoral. En abril, la diputada del Partido Socialista Brasileño (PSB) Tabata Amaral, precandidata a la alcaldía de la ciudad de San Pablo, había publicado en sus redes sociales un vídeo con un deepfake en el que la cara del actual alcalde Ricardo Nunes sustituía a la del actor Ryan Gosling, que interpreta a Ken en la película “Barbie”. Amaral borró posteriormente el vídeo. Más allá de la prohibición del TSE queda el problema de cómo identificar la masa de deepfakes que se teme que invadan las redes sociales durante la campaña electoral. Estas manipulaciones parecidas a la realidad podrían utilizarse para difamar a los candidatos, difundir noticias falsas y distorsionar la opinión pública, con vídeos falsos de discursos incendiarios o confesiones ficticias.

Lula da Silva con Giorgia Meloni durante el segundo día de la Cumbre del G7 en Borgo Egnazia, Italia (EFE/ETTORE FERRARI)
Lula da Silva con Giorgia Meloni durante el segundo día de la Cumbre del G7 en Borgo Egnazia, Italia (EFE/ETTORE FERRARI)

Pero el reto es mundial, y por eso ni siquiera Brasil puede sustraerse al debate sobre la regulación de la IA. El G7, a cuya reunión asistió Lula por invitación de la primera ministra italiana, Giorgia Meloni, está trabajando en el frente legislativo. En la cumbre del año pasado en Japón, el G7 estableció el llamado ‘Proceso de Hiroshima” para promover medidas mundiales para los sistemas avanzados de IA y un código de conducta internacional para los desarrolladores con el objetivo de fomentar prácticas responsables y normalizadas en este sector. Entre los 11 principios básicos del Proceso de Hiroshima hay también la gestión de riesgos, que fomenta la adopción de medidas de evaluación, incluidas pruebas internas y externas, y la mitigación de diversos tipos de riesgos, desde los químicos hasta la ciberseguridad. En cuanto a la Unión Europea (UE), en marzo de este año se aprobó la Ley de Inteligencia Artificial. Se trata de un conjunto de normas para el desarrollo, la comercialización, la implantación y el uso de sistemas de inteligencia artificial en la UE y se ha formulado con arreglo a un planteamiento basado en el riesgo. Se aplica a las instituciones públicas y a las empresas que operan en el espacio europeo, pero también a empresas externas si sus productos o servicios de IA se utilizan en el Viejo Continente. En caso de uso indebido o incumplimiento de los sistemas de Inteligencia Artificial, pueden imponerse multas muy elevadas, como el 7% de la facturación global anual y hasta 35 millones de euros.

Brasil aún no tiene su propia normativa, pero el Ministerio de Ciencia, Tecnología e Innovación creó el lunes un grupo de trabajo que se reunirá hasta finales de julio para orientar la propuesta de un Plan Brasileño de Inteligencia Artificial al Consejo Nacional de Ciencia y Tecnología. Por otra parte, la votación en el Senado para aprobar el Proyecto de Ley (PL) 2.338/2023 que regula el desarrollo y uso de la IA en Brasil, se ha aplazado hasta el próximo martes. El ponente es el senador Eduardo Gomes, del Partido Liberal, el PL de Bolsonaro, que presentó un texto sustitutivo al ya presentado en 2023 por el presidente del Senado, Rodrigo Pacheco. Gomes dijo que la regulación de la IA no debe confundirse con otras cuestiones, como “la lucha contra las fake news y la polarización política”.

Sin embargo, en el nuevo texto faltan medidas contra los deepfakes, mientras que la abogada Estela Aranha, miembro del Consejo Asesor de Alto Nivel de la ONU sobre Inteligencia Artificial, defendió que el proyecto de ley incluya mecanismos para inhibir lo que llamó “discriminación algorítmica”. “Hay amplia evidencia estadística y científica de que los algoritmos tienen sesgos que conducen a resultados discriminatorios, aunque sea intencionadamente. En la literatura, la discriminación es un artefacto del proceso tecnológico de la IA. Esto conduce a una discriminación ilegal o injusta. Estos sesgos pueden reproducir y amplificar prejuicios y desigualdades raciales, de género y de clase”, declaró Aranha.

Guardar

Nuevo

Últimas Noticias