
La inteligencia artificial no es neutral ni 100% infalible. Tiene sesgos y reproduce los estereotipos de los datos sobre los cuales se construye (y de quienes la desarrollan). Esto no quiere decir que haya que demonizar esta tecnología y dejarla de lado por completo, sino que resulta necesario entender que esto ocurre y que esto puede llevar a generar discriminación, afectar la democracia e incluso profundizar las diferencias entre las clases sociales.
Así lo advirtió Kate Crawford, profesora visitante del MIT Media Lab e investigadora y cofundadora del AI Now Research Institute de la Universidad de Nueva York, en el marco de una charla que tuvo con la prensa en la Casa Rosada y a la que asistió Infobae.
Fue después del encuentro que tuvo la especialista, con el presidente Mauricio Macri, el secretario de Planeamiento y Políticas en Ciencia, Tecnología e Innovación Productiva, Jorge Aguado, y el director del Programa Argentina 2030, Iván Petrella. La experta fue invitada en el marco del programa Argentina 2030 de la Jefatura de Gabinete de Ministros.

Crawford se encarga de estudiar las implicancias sociales y políticas de los algoritmos que se utilizan en el desarrollo de sistemas de datos y machine learning. "A la hora de analizar estas tecnologías hay que preguntarse quién recibirá los mayores beneficios y quiénes corren los mayores riesgos", destacó Crawford, durante la charla con la prensa.
La experta compartió varios ejemplos de sesgos en los algoritmos, como el caso del sistema de reconocimiento de imágenes de Google que confundía fotos de gorilas con personas de tez negra; o el sistema de análisis de CV que usaba Amazon y discriminaba a las mujeres a la hora de ofrecer recomendaciones.
Las fallas fueron identificadas, los casos se hicieron públicos y los errores fueron corregidos, pero estos casos, como otros, dejaron en claro que los datos con los que se nutren los algoritmos son cruciales para evitar que haya discriminación. ¿De dónde sale la información y cómo se elige?
Los sesgos y estereotipos que surgen de los datos seleccionados
Si la inteligencia artificial es nutrida a partir de una base de datos que muestra solo un estereotipo como "válido" o "correcto", entonces, aprenderá a reproducir ese estereotipo y el resto (de la realidad, de la gente) quedará fuera del cuadro. En este plano no queda espacio para la diversidad.
Si se piensa que se usa la inteligencia artificial para analizar la situación crediticia, legal, laboral y tantos otros aspectos vitales para la vida del ciudadano, entonces la dimensión social y ética se vuelve un aspecto crucial. Sino, se corre el riesgo de quitar libertades y de afectar la democracia.
"Es muy difícil lidiar con los sesgos", advirtió la especialista. Y en este sentido dijo que es fundamental trabajar con equipos multidisciplinarios, que incluyan filósofos y sociólogos, a la hora de desarrollar este tipo de tecnología.
A veces los algoritmos se equivocan y en el plano de la salud esto puede implicar un riesgo de vida. Se reportaron casos donde un sistema de inteligencia artificial ofrecía recomendaciones poco convenientes o fiables para el tratamiento de pacientes con cáncer.
Y también están los casos en los que la inteligencia artificial se usa, adrede, para manipular elecciones, como ocurrió con Cambridge Analytica o como puede suceder con los videos deep fakes donde se puede usar la tecnología para, literalmente, poner discursos falsos en la boca de cualquier persona, por ejemplo, políticos.

En China se comenzó a implementar un sistema de puntaje ciudadano basado en la confiabilidad de la gente. Este "crédito social", tal como se denomina, se calcula en base a ciertos criterios de comportamiento. No se difundió abiertamente cómo se calcula este ranking, pero se sabe que se tiene en cuenta, entre otras cosas, si la persona fumó en lugares prohibidos, si presenta infracciones como conductor o si difunde información falsa en las redes.
En función de esto se establece el crédito social y quienes tienen un puntaje bajo reciben limitaciones: se los restringe para viajar, por ejemplo. Este sistema, que se está aplicando paulatinamente en algunas regiones, desembarcará por completo en el país, para 2020.
"En China, se calcula 12 millones de personas no pudieron viajar dentro del país como castigo por tener un crédito social bajo", remarcó Crawford, quien también habló de los sistemas de vigilancia basados en IA que se usan en ese país.
Incluso alertó sobre una investigación donde se busca utilizar el reconocimiento facial para predecir si una persona es propensa a cometer crímenes en función de sus rasgos faciales.

Otro factor a tener en cuenta es que la inteligencia artificial está concentrada en pocas manos: "Hay solo cinco grandes compañías que están desarrollando inteligencia artificial y otras cuatro en China", explicó la experta. "Quien controle la IA controlará el mundo", reflexionó.
El factor geopolítico no puede quedar fuera de este plano y en este sentido, es fundamental que las regiones trabajen de manera conjunta. "La Unión Europea, con la GDPR, creó un marco legal para la protección de datos de los ciudadanos", mencionó Crawford, a modo de ejemplo.
La situación en Argentina
"Creo que Argentina está muy bien ubicada para convocar a más expertos de diferentes disciplinas para empezar a pensar en las implicancias sociales de la inteligencia artificial. Posicionaría a la Argentina en un lugar de liderazgo, junto con otros países que están viendo esto como un tema interdisciplinario y social", subrayó la experta.
Y añadió: "Siempre se dice que no hay suficientes expertos en inteligencia artificial, pero ustedes tienen científicos sociales, antropólogos, sociólogos que están analizando el impacto social de esta tecnología. Hay que ver cómo se los incorpora, cómo se los incluye para que sean parte de estos desafíos de investigación. Creo que se podría hacer".

Pensar de manera crítica
"Hay que crear sistemas de inteligencia artificial que tengan en cuenta el contexto social y cultural", subrayó Crawford. En este sentido, remarcó que es fundamental que la prensa visibilice estas cuestiones y que se refuerce el sistema educativo para incluir la dimensión social.
"Se va a necesitar mucho pensamiento crítico y ésta es una de las cosas que tenemos que tener en cuenta como prioridad educativa. En los últimos diez años se ha dicho: 'enseñen a los chicos a programar, a codificar, todos deben codificar'. Y eso no resolverá estos problemas. Además, la programación y la escritura de código se puede automatizar fácilmente", analizó.
La tecnología, después de todo (o antes que nada), tiene una dimensión humana que no se puede desatender.
"Creo que más que aprender a programar hay que aprender a pensar de manera crítica. Y eso es algo que se debe aprender desde la primera infancia. Creo que a los 5, 6, los niños ya deberían saber que estos sistemas no necesariamente les muestran el mundo tal como es, sino que les muestran un mundo muy específico, personalizado, manipulado", concluyó.
SEGUÍ LEYENDO:
Microsoft quiere que se regule la tecnología de reconocimiento facial
Últimas Noticias
Liberaron a la mujer que apuñaló a su inquilino por masturbarse frente a sus hijos: dijeron que actuó en defensa de los menores
Ocurrió en la localidad platense de Tolosa. La Justicia resolvió que actuó en defensa de los chicos. El herido permanece internado en grave estado

Amor Rebelde se pronuncia tras explosión en discoteca de Trujillo durante su presentación: “Todos nos encontramos bien”
La agrupación de cumbia usó sus redes sociales para informar a sus seguidores el estado de salud en que se encuentran sus músicos tras el atentado

Crisis productiva: desde 2023, en solo una provincia argentina aumentó el número de empresas privadas
Un relevamiento advierte sobre la fuerte contracción del tejido de producción en casi todo el territorio. Además, en solo dos distritos aumentó el número de empleos formales

Colombia vs. Estados Unidos EN VIVO SheBelieves Cup: siga el minuto a minuto del partido de la “Tricolor”
La “Tricolor” buscará cerrar su participación en el torneo internacional frente a la gran favorita a llevarse el título
Sin Bandera hace sold out en la Arena CDMX con su “Escenas Tour” y revive sus grandes éxitos
Miles de asistentes se reunieron el 6 de marzo para cantar junto a Leonel García y Noel Schajris algunos de los temas que han marcado generaciones


