Ser y parecer, el dilema en ciernes de la industria tecnológica

A medida que copta nuestra cotidianidad, esta industria gana más y más dinero. ¿Pero a cambio de qué?

Compartir
Compartir articulo
En términos de parecer y ser, el colmo de la ridiculez lo evidencia la aplicación de Inteligencia Artificial en utilidades de moda como el “reconocimiento facial”
En términos de parecer y ser, el colmo de la ridiculez lo evidencia la aplicación de Inteligencia Artificial en utilidades de moda como el “reconocimiento facial”

Atravesados por la informatización total, adictos a la conexión y anestesiados por las mieles de los likes y la viralización de contenidos, la tendencia es que nos comportemos más como avatars y menos como personas. Así por lo menos lo establece de cara al futuro su Majestad Metaverse. Corderitos digitales que, like y download mediante, seguimos coleccionando recursos en formato de bit y byte para tramitar la vida cotidiana. “Ser no es lo mismo que parecer”, pero el mantra de la industria tecnológica es “que parezca y no que sea”.

A medida que copta nuestra cotidianidad, esta industria gana más y más dinero, ¿pero a cambio de qué? Distribuir versiones free o demo, promocionar y vender productos que no están terminados, que adolecen de seguridad suficiente y que incluyen fallas de diseño serias, que en muchos casos terminan facilitando la comisión de ciberdelitos, exponiendo la privacidad del público, generando perjuicios que no paran de crecer.

Siguiendo con la idea del mantra, “parece que silenciar tu micrófono no es lo mismo que apagarlo”. Mutear el sonido en una larga lista de aplicaciones no siempre apaga el micrófono. Muchas de las aplicaciones tienen la capacidad de acceder a los datos de audio, es decir escucharnos, cuando están silenciadas.

Las Universidades de Wisconsin-Madison y de Loyola de Chicago trabajaron durante la pandemia para entender y analizar las diez principales aplicaciones de videoconferencia y descubrieron que los botones de “silencio” presentados por las aplicaciones nativas no desactivan el micrófono realmente. Entre las apps que operan de esta forma se encuentran: Zoom, Slack, Teams, Skype, Cisco Webex, Google Meet, BlueJeans, WhereBy, GoToMeeting, Jitsi Meet y Discord. La mayoría presentaron preocupaciones de privacidad potenciales.

Según la investigación realizada, todas las aplicaciones podían consultar activamente, es decir, recuperar audio sin procesar el micrófono cuando el usuario estaba silenciado. Curiosamente, tanto en Windows como en MacOS, la app Webex consulta el micrófono independientemente del estado del botón de silencio. Esta plataforma envía cada minuto paquetes de red que contienen datos derivados del audio a sus servidores -incluso cuando el micrófono está silenciado- no la frecuencia del sonido, sino el volumen. Esta información de telemetría no es sonido grabado, sino un valor derivado del audio que se corresponde con el nivel de volumen de las actividades en segundo plano. Dichos datos demostraron ser suficientes para construir un clasificador de actividad de fondo con una precisión del 82% para analizar la transmisión e inferir la actividad probable entre seis posibilidades, por ejemplo: cocinar, limpiar, escribir, etc, en la habitación donde está activa la aplicación.

Desde el punto de vista de la seguridad, mientras que algunas aplicaciones encriptaron los paquetes de datos saliente antes de enviarlo a la interfaz del sistema operativo, otras lo hacen en texto plano. ¿Será esta la razón del auge de los “teléfonos tontos”, los celulares no inteligentes en un mundo hiperconectado?

Las compras globales de “teléfonos tontos” alcanzaron los mil millones de unidades el año pasado, frente a los 400 millones de 2019. Esto se compara con las ventas mundiales de 1.400 millones de smartphones en 2021, luego de una caída del 12,5% en 2020. Parecen tontos, pero no lo son. La empresa neoyorquina Light Phone permite a los usuarios escuchar música y podcasts, y conectarse por Bluetooth a los auriculares, pero promete que sus teléfonos “nunca tendrán redes sociales, correo electrónico, navegador de internet o cualquier otra fuente infinita que genere ansiedad”. La compañía registró su mejor año de rendimiento financiero en 2021, con un aumento de las ventas del 150% en comparación con 2020.

En términos de parecer y ser, el colmo de la ridiculez lo evidencia la aplicación de Inteligencia Artificial en utilidades de moda como el “Reconocimiento Facial” y una exhibición de arte con 100 imágenes de la misma pintura, “La Gioconda”. Pero, devuelta, no todo es lo que parece: los humanos ven 100 imágenes idénticas de esta pintura; pero los sistemas de reconocimiento facial ven 100 personas diferentes. El objetivo de esta prueba es simplemente evidenciar la inseguridad del mecanismo de reconocimiento facial. Todos se ven casi igual que el original de Da Vinci para las personas, pero las imágenes incluyen diferencias de percepción causadas por los sesgos y las vulnerabilidades de seguridad de la IA, que los ciberdelincuentes utilizan para hackear sistemas de reconocimiento facial, automóviles autónomos, imágenes médicas, smartphones, algoritmos financieros o, cualquier otra tecnología de IA.

El modelo de reconocimiento facial consiste en un conjunto de datos para reconocer rostros según la pose y la edad. Comprende más de 3 millones de imágenes divididas en más de 9.000 clases, lo que convierte la información en una opción popular para entrenar modelos de machine learning para el reconocimiento. Existen 4 tipos de machine learning: FaceNet (Google), DeepFace (Facebook), VGGFace (Oxford) y OpenFace (CMU). Todas las imágenes se manipulan de manera diferente para que la IA reconozca a una persona, sin dejar de ser Mona Lisa para el ojo humano.

Para engañar a los sistemas de reconocimiento facial en el mundo real, el atacante necesita obtener una imagen personal manipulada en la base de datos de reconocimiento facial. Esto podría hacerse hackeando la base o mediante la ingeniería social del procedimiento de aceptación de fotografías. Así, la IA de reconocimiento facial puede ser subvertida con fines maliciosos. La gran conclusión es que solo porque su sistema de IA dice que el negro es negro, eso puede no ser cierto. No solo es necesario parecer, sino ser.

SEGUIR LEYENDO