
Desde 2015 Google, Microsoft y Baidu cuentan con inteligencia artificial (IA) para suplantar a los seres humanos en la identificación de imágenes; dos años más tarde Facebook desarrolló una tecnología de reconocimiento facial. Sin embargo, las máquinas que tienen la capacidad de aprender tienen también una vulnerabilidad: son susceptibles al engaño.
Para demostrarlo, un grupo de investigadores del Laboratorio de Informática e Inteligencia Artificial del Instituto de Tecnología de Massachusetts (MIT) hizo una prueba. Y consiguió que Google confundiera rifles con un helicóptero.
Los ejemplos adversativos, o antagónicos, son un conjunto de datos que se modifican ligeramente para comprobar si la IA los clasifica mal. "Considerémoslos alucinaciones para algoritmos", ilustró Wired su nota sobre el experimento del MIT. Eso tiene importancia, por ejemplo, para evitar que un auto sin conductor confunda un cartel de alto con uno de velocidad máxima, por ejemplo. También se utilizan para fortalecer los filtros anti-spam.

El caso de la máquina que confunde un panda con un mono gibón —y está segura: le da un 99,3% de confianza a su reconocimiento— era el más conocido hasta ahora. La prueba del MIT reveló además que los ejemplos adversativos son más fáciles de crear que antes.
A diferencia de los ensayos de los desarrolladores, el del MIT no partió del conocimiento previo del algoritmo sino que operó a ciegas, como lo haría un hacker en la vida real. Apuntaron a afectar la parte del sistema Vision API, de Google Cloud, que se ocupa de dar nombres a los objetos que se presentan en las imágenes.
Los investigadores hicieron que Vision API confundiera una hilera de rifles con un helicóptero meramente al cambiar algunos pixeles de la foto. "Para el ojo humano las dos imágenes parecen idénticas. La diferencia indiscernible sólo engaña a la máquina", explicó la revista.
Lo comprobaron varias veces y también con otros ejemplos: cada vez que trataban de engañar a la IA, analizaban sus resultados y retocaban muy poco la imagen para que convenciera a la computadora de que una cosa en realidad era otra.

"Este reciente trabajo de MIT demuestra que los atacantes podrían potencialmente crear ejemplos adversativos para confundir a los sistemas comerciales de IA", observó Wired. "En general se considera que Google tiene uno de los mejores equipos de seguridad del mundo, pero uno de sus productos más futuristas puede sufrir alucinaciones".
Las implicancias son serias: estos ataques se podrían usar —se destacó como ejemplos—para que en un aeropuerto el scanner de equipaje deje subir una bomba a un avión al confundirla con un peluche, o para que un sistema de reconocimiento facial identifique a la persona equivocada como autora de un delito.

Todos los desarrolladores de IA investigan este peligro, no sólo por las razones prácticas evidentes sino porque, en realidad, no se comprende qué causa esta vulnerabilidad. Google incluso hizo un concurso de ejemplos adversativos.
"En esencia, los investigadores han creado sistemas de IA que piensan de manera diferente a la de los humanos, y nadie está seguro de cómo funcionan", concluyó Wired.
LEA MÁS:
Últimas Noticias
Ecuador y la Unión Europea firman acuerdo Eurofront para reforzar control fronterizo e inteligencia migratoria
La declaración de intenciones apunta a fortalecer capacidades institucionales, intercambio de información y cooperación técnica

Samanta Schweblin, entre los cinco finalistas del millonario Premio AENA
La narradora argentina que reside en Berlín alcanzó la instancia decisiva del certamen con su libro “El buen mal”. Compiten con ella Héctor Abad Faciolince, Nona Fernández, Marcos Giralt Torrente y Enrique Vila-Matas

Este es el motivo por el que Sheinbaum va contra regidores en el Plan B de la reforma electoral: “Se busca no dilapidar”
La presidenta acusó que en algunos municipios se asignaron regidurías para beneficiar a amigos y familiares

Metro CDMX y Metrobús hoy 18 de marzo: estación San Antonio Abad permanece cerrada
Información y actualización del servicio de transporte público en la capital este miércoles

Cárteles en México adaptan drones para entrega precisa de drogas en zonas fronterizas y cárceles, alerta Naciones Unidas
Autoridades han asegurado 134 artefactos entre 2019 y 2025; los primeros casos documentados en nuestro país se remontan a 2010

