Documentos prueban que Huawei ayudó al régimen chino a perseguir minorías con un poderoso software

El gigante de las telecomunicaciones, que quiere imponer su red de 5G con ayuda de Beijing, es un aliado estratégico para los planes de Xi Jinping

Huawei, el principal aliado del régimen chino para el tendido y control de la red 5G en todo el mundo, ayudó a perseguir a las minorías en Xinjian a pedido de Beijing (Reuters)
Huawei, el principal aliado del régimen chino para el tendido y control de la red 5G en todo el mundo, ayudó a perseguir a las minorías en Xinjian a pedido de Beijing (Reuters)

El gigante tecnológico chino Huawei ha probado un software de reconocimiento facial que podría enviar “alarmas uigures” automatizadas a las autoridades gubernamentales cuando sus sistemas de cámaras identifiquen a miembros del grupo minoritario oprimido, según un documento interno que proporciona más detalles sobre el régimen de vigilancia de inteligencia artificial de China.

Un documento firmado por representantes de Huawei, descubierto por la organización de investigación IPVM y compartido exclusivamente con The Washington Post, muestra que la empresa de telecomunicaciones trabajó en 2018 con la empresa de reconocimiento facial Megvii para probar un sistema de cámaras de inteligencia artificial que podía escanear rostros en una multitud y estime la edad, el sexo y la etnia de cada persona.

Si el sistema detectaba el rostro de un miembro del grupo minoritario musulmán -según el informe de la prueba- podría activar una “alarma uigur” -lo que podría marcarlos para la policía en China- cuyos miembros han sido detenidos en masa como parte de una brutal represión del gobierno. El documento, que se encontró en el sitio web de Huawei, fue eliminado poco después de que The Post e IPVM solicitaran comentarios a las empresas.

Esta tecnología ha ganado en los últimos años un papel cada vez más importante entre los departamentos de policía de China, dicen activistas de derechos humanos. Pero el documento arroja nueva luz sobre cómo Huawei, el mayor fabricante mundial de equipos de telecomunicaciones, también ha contribuido a su desarrollo, proporcionando los servidores, cámaras, infraestructura de computación en la nube y otras herramientas que sustentan el poder tecnológico de los sistemas.

John Honovich, fundador de IPVM, una empresa con sede en Pensilvania que revisa e investiga equipos de videovigilancia, dijo que el documento mostraba cuán “aterradora” y “totalmente normalizada” se ha vuelto tal tecnología discriminatoria.

Esta no es una empresa aislada. Esto es sistemático”, dijo Honovich. “Se pensó mucho en asegurarse de que esta ‘alarma uigur’ funcionara”.

Huawei y Megvii han anunciado tres sistemas de vigilancia que utilizan la tecnología de ambas compañías en los últimos años. The Post no pudo confirmar de inmediato si el sistema con la “alarma Uigur” probado en 2018 era uno de los tres actualmente a la venta. Los representantes de Huawei y Megvii no respondieron de inmediato a las solicitudes de comentarios.

Los funcionarios chinos han dicho que dichos sistemas reflejan el avance tecnológico del país y que su uso ampliado puede ayudar al personal de respuesta del gobierno y mantener a las personas seguras. Pero para los defensores de los derechos internacionales, son una clara señal del sueño de control social de China: una forma de identificar a los miembros desfavorables de la sociedad y aplastar la disidencia pública. El Ministerio de Relaciones Exteriores de China no respondió de inmediato a las solicitudes de comentarios.

Los investigadores de inteligencia artificial y los defensores de los derechos humanos dijeron que les preocupa que el desarrollo y la normalización de la tecnología puedan llevar a su propagación por todo el mundo, ya que las autoridades gubernamentales en otros lugares presionan por una forma rápida y automatizada de detectar a los miembros de los grupos étnicos que consideran indeseables o peligro para su control político.

Maya Wang, investigadora principal de China del grupo de defensa Human Rights Watch, dijo que el país ha utilizado cada vez más la vigilancia asistida por IA para monitorear de cerca al público en general y oprimir a las minorías, manifestantes y otras personas consideradas amenazas para el estado.

La ambición de vigilancia de China va mucho más allá de la persecución de las minorías”, dijo Wang, pero “la persecución de las minorías obviamente no es exclusiva de China... Y estos sistemas se prestarían bastante bien a los países que quieren criminalizar a las minorías”.

Ren Zhengfei fundador de Huawei, durante una conferencia en la sede central de la compañía paraestatal en Shenzhen, Guangdong (Reuters)
Ren Zhengfei fundador de Huawei, durante una conferencia en la sede central de la compañía paraestatal en Shenzhen, Guangdong (Reuters)

Los sistemas, entrenados en una inmensa cantidad de fotos faciales, pueden comenzar a detectar ciertos patrones que podrían diferenciar, por ejemplo, los rostros de las minorías uigures de los de la mayoría Han en China. En un artículo de 2018, “Descubrimiento de características faciales para el reconocimiento de etnias”, investigadores de IA en China diseñaron algoritmos que podían distinguir entre los “puntos de referencia faciales” de los rostros uigur, coreano y tibetano.

Pero el software ha provocado importantes debates éticos entre los investigadores de IA que dicen que podría ayudar en la discriminación, la elaboración de perfiles o el castigo. También argumentan que el sistema seguramente arrojará resultados inexactos, porque su desempeño variaría ampliamente según la iluminación, la calidad de la imagen y otros factores, y porque la diversidad de etnias y orígenes de las personas no está tan claramente dividida en grupos simples.

Este software de detección de etnicidad no está disponible en los Estados Unidos pero los algoritmos que pueden analizar los rasgos faciales o los movimientos oculares de una persona son cada vez más populares en todo, desde software para entrevistas de trabajo hasta sistemas de monitoreo anti-trampa.

Clare Garvie, asociada senior del Centro de Privacidad y Tecnología de Georgetown Law que ha estudiado el software de reconocimiento facial, dijo que el software de “alarma uigur” representa un paso peligroso hacia la automatización de la discriminación étnica a una escala devastadora. “Hay ciertas herramientas que simplemente no tienen una aplicación positiva y muchas aplicaciones negativas, y una herramienta de clasificación étnica es una de esas”, dijo Garvie. “Nombra una norma de derechos humanos, y esto probablemente viola eso”.

Huawei y Megvii son dos de los pioneros tecnológicos más destacados de China, y los funcionarios los han catalogado como líderes de un impulso nacional para alcanzar la vanguardia del desarrollo de la inteligencia artificial. Pero las empresas multimillonarias también se han enfrentado al rechazo de las autoridades estadounidenses, que argumentan que representan una amenaza para la seguridad de Estados Unidos o que han contribuido al brutal régimen de opresión étnica de China.

El Departamento de Comercio de Estados Unidos sancionó el año pasado a ocho empresas chinas, incluida Megvii, por su participación en “violaciones y abusos de los derechos humanos en la implementación de la campaña de represión, detención arbitraria masiva y vigilancia de alta tecnología de China” contra los uigures y otros musulmanes grupos minoritarios.

El gobierno de Estados Unidos también sancionó a Huawei, prohibiendo la exportación de tecnología estadounidense a la empresa y presionando a otros países para que excluyan sus sistemas de sus redes de telecomunicaciones.

Huawei, un gigante del hardware con equipos y servicios utilizados en más de 170 países, ha superado a Apple para convertirse en el segundo mayor fabricante de teléfonos inteligentes del mundo y está presionando para liderar el despliegue internacional de nuevas redes móviles 5G que podrían remodelar Internet.

Y Megvii, el desarrollador del sistema Face++ con sede en Beijing y una de las empresas emergentes de reconocimiento facial más valoradas del mundo, dijo en un prospecto de oferta pública el año pasado que sus “soluciones de la ciudad [Internet de las cosas]”, que incluyen cámara, sensores y software que las agencias gubernamentales pueden usar para monitorear al público cubrieron 112 ciudades en China hasta junio pasado.

El documento de “alarma Uigur” obtenido por los investigadores, llamado “informe de prueba de interoperabilidad”, ofrece información técnica sobre cómo las autoridades pueden alinear los sistemas Huawei-Megvii con otras herramientas de software para una vigilancia pública sin problemas.

El sistema probó cómo una combinación del software de reconocimiento facial de Megvii y las cámaras, los servidores, el equipo de red, la plataforma de computación en la nube y otro hardware y software de Huawei funcionaban en docenas de “funciones básicas”, incluido su soporte de “reconocimiento basado en la edad, el sexo, origen étnico y ángulo de las imágenes faciales“, afirma el informe. Pasó esas pruebas, así como otra en la que se probó su capacidad para admitir “alarmas uigures” fuera de línea.

El informe de prueba también dijo que el sistema pudo tomar instantáneas en tiempo real de los peatones, analizar archivos de video y reproducir los 10 segundos de metraje antes y después de que se detecte cualquier rostro uigur.

El documento no proporcionó información sobre dónde o con qué frecuencia se usa el sistema. Pero los departamentos de policía de China utilizan sistemas similares, según documentos oficiales revisados el año pasado por The New York Times, que encontró un sistema de ciudad que había escaneado en busca de caras uigures medio millón de veces en un solo mes.

Uno de los centros de "reeducación" de trabajo en el que el régimen chino encierra a minorías en Xinjiang. Huawei contribuyó para identificar a los musulmanes que viven en esa región (Reuters)
Uno de los centros de "reeducación" de trabajo en el que el régimen chino encierra a minorías en Xinjiang. Huawei contribuyó para identificar a los musulmanes que viven en esa región (Reuters)

Jonathan Frankle, investigador de aprendizaje profundo en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del Instituto de Tecnología de Massachusetts, dijo que estos sistemas se están convirtiendo claramente en una prioridad entre los desarrolladores que desean capitalizar la capacidad técnica para clasificar a las personas por etnia o raza. La avalancha de datos de imágenes faciales de multitudes públicas, agregó, podría usarse para desarrollar aún más la precisión y el poder de procesamiento de los sistemas.

La gente no se toma la molestia de construir sistemas costosos como este por nada”, dijo Frankle. “No se trata de gente que quema dinero por diversión. Si hicieron esto, lo hicieron por una razón muy específica en mente. Y esa razón es muy clara”.

Es menos seguro que el software de detección de etnias pueda despegar fuera de las fronteras de un estado de vigilancia. En los Estados Unidos y otras democracias de estilo occidental, los sistemas podrían chocar con leyes establecidas desde hace mucho tiempo que limitan las búsquedas gubernamentales y exigen la igualdad de protección ante la ley.

La policía y las autoridades federales de los Estados Unidos han mostrado un interés creciente en el software de reconocimiento facial como herramienta de investigación, pero los sistemas han provocado una feroz reacción pública por sus posibles sesgos e inexactitudes, y algunas ciudades y fuerzas policiales han optado por prohibir la tecnología por completo.

Sin embargo, estas tecnologías podrían encontrar un mercado entre los regímenes internacionales en algún punto del equilibrio entre la influencia china y estadounidense. En Uganda, la policía y los funcionarios gubernamentales ya han utilizado cámaras de reconocimiento facial de Huawei para vigilar a manifestantes y opositores políticos.

Si está dispuesto a modelar su gobierno y dirigir su país de esa manera”, dijo Frankle, “¿por qué no utilizaría la mejor tecnología disponible para ejercer control sobre sus ciudadanos?”.

La discriminación contra los uigures ha prevalecido durante mucho tiempo en la mayoría de la población china Han. En la región de Xinjiang, en el noroeste de China, las autoridades han citado actos esporádicos de terrorismo como justificación para una dura represión que comenzó en 2015 y que generó la condena de Estados Unidos y otras naciones occidentales. Los académicos estiman que más de un millón de uigures han sido detenidos en campos de reeducación, con algunas denuncias de tortura.

El asesor de seguridad nacional de Estados Unidos, Robert O’Brien, calificó el trato represivo de los grupos minoritarios en Xinjiang como “algo cercano a” un genocidio, en un evento en línea organizado por el Instituto Aspen en octubre.

Bajo presión internacional, las autoridades de Xinjiang anunciaron en diciembre de 2019 que todos los “estudiantes” de reeducación se habían graduado, aunque algunos uigures han informado desde entonces que se vieron obligados a aceptar trabajar en fábricas o arriesgarse a ser detenidos. Las autoridades de Xinjiang dicen que todos los residentes trabajan por su propia voluntad.

El gobierno de Estados Unidos ha prohibido la importación de ciertos productos de China sobre la base de que podrían haber sido fabricados mediante trabajo forzoso en Xinjiang.

Uno de los sistemas Huawei-Megvii puestos a la venta después de la prueba de “alarma Uigur”, en junio de 2019, se anuncia como un ahorro de espacio de almacenamiento digital de los gobiernos locales al guardar imágenes en un solo lugar.

En septiembre de este año se anunciaron para la venta otros dos sistemas, que se dice que utilizan el software de vigilancia de Megvii y la plataforma informática Atlas AI de Huawei. Ambos fueron descritos como “localización” de los productos usando chips de Huawei y listados para la venta “solo por invitación”. Los materiales de marketing para uno de esos sistemas dicen que fue utilizado por las autoridades de la provincia de Guizhou, en el sur de China, para atrapar a un criminal.

(C) The Washington Post.-

MÁS SOBRE ESTE TEMA: