
¿Qué pasaría si el evaluador para tu próximo trabajo fuera un modelo de Inteligencia Artificial (IA) entrenado en Corea? ¿O si quien decide las prioridades en una sala de emergencias médicas a la que llegaste desesperada fuera un algoritmo muy sofisticado?
La IA toma decisiones que afectan los aspectos más importantes de nuestras vidas. Estos Sistemas de Procesamiento Masivos de Datos reproducen los valores de las personas que los diseñan, que, por lo general, son ingenieros, varones, que fueron altamente educados y aprendieron muchas matemáticas, física y, en la mayoría de los casos, muy poco de antropología, sociología o trabajo social. La mayoría de ellos se formaron siguiendo esa división artificial que hicimos del conocimiento humano: por un lado, las ciencias duras y por el otro, las ciencias sociales. En esta separación, reside uno de los principales desafíos: los problemas a los que nos enfrentamos hoy necesitan personas equipadas de herramientas técnicas y perspectivas sociales, de manera integrada, no como entidades separadas.
Para que se entienda: si hoy le pedimos a un generador de imágenes que muestre cómo es un médico o un científico, seguramente nos devuelva la foto de un hombre blanco. Y la lista de ejemplos podría seguir. Estamos mostrando a las nuevas generaciones que los puestos de máxima responsabilidad “son” predominantemente así. Esto es, ni más ni menos, reproducir sesgos sistémicos que existieron en el mundo a lo largo de los años, anulando cualquier otro tipo de representación más fiel a la realidad, que es heterogénea, compleja y diversa. Es sutil y está oculto. Sin embargo, si no lo solucionamos hoy, se amplificaran exponencialmente problemas que ya estaban ahí.
En la actualidad, ya sabemos que cuando una tecnología emerge aparecen asociados nuevos problemas y nuevas responsabilidades. Gemma Galdon, una emprendedora social de la red de Ashoka, trabaja llevando perspectivas sociales al mundo de los algoritmos: ella y su organización construyen dispositivos que auditan que la tecnología con la que convivimos no reproduzca inequidades ni discriminaciones. Por ejemplo, evitando el uso de datos financieros en lugar de datos médicos en las salas de emergencias de los hospitales, o bien evitando la subrepresentación de mujeres que resultan discriminadas en datasets bancarios.
Lo que sucede es que la IA no está pensada para solucionar los problemas del mundo pero sí puede hacerlo. De a poco, los emprendedores sociales comienzan a trabajar en cada fase del ciclo del modelo y no solo como controladores, esto es, como meros usuarios auditores; buscando integrar perspectivas sociales desde momentos claves del inicio y no como un parche al final. Desarrollar una IA responsable hace, necesariamente, más lento el proceso de producción. En términos de arquitectura algorítmica, no podemos codificar la ética. Lo que sí podemos hacer son pruebas que permitan afinar los modelos y ajustarlos para asegurarnos que produzcan mejores resultados.
Es momento de pensar en regulaciones que aseguren ir más despacio en esta carrera: no es hacerlo primero, es hacerlo pensando en el bien común. Somos contemporáneos de un momento único en la creación tecnológica. Porque el problema no es la IA, sino poder acceder a soluciones efectivas accesibles y poner a las personas en el centro. Necesitamos equipos interdisciplinarios, que entiendan los contextos, las políticas, los desafíos, que tengan capacidad técnica y también capacidad de trabajo en territorios. Las y los emprendedores que sepan usar estas herramientas con sentido, con propósito y también creando valor en su camino, harán la diferencia. Necesitamos que las empresas de tecnología dialoguen con ellas y ellos para entender sus miradas, sus perspectivas así como también que los emprendedores puedan saber cómo usar la tecnología de la que aún no vimos todo su potencial.
La autora es Directora de la Red de Emprendedores Sociales en Ashoka para el Cono Sur
Últimas Noticias
Crisis de la integridad científica en tiempos de IA
La proliferación de textos académicos sin controles rigurosos expone riesgos estructurales para la confianza pública

Perú, camino a sus Bodas de Plata de la impunidad
La “nueva” formalización —que nació como un proceso extraordinario en 2012 y que lleva más de una década en una suerte de coma inducido— se ha transformado en un laberinto burocrático que nadie lidera y que todos prolongan

Alerta naranja: la oportunidad de incorporar en el nuevo Código Penal la prohibición de los trapitos
Un pedido, desde Córdoba, para que en la reforma del Código Penal se tipifique como delito a esta actividad extorsiva que se adueñó de las calles

F-16 en Argentina: un pequeño paso para la defensa, un gran salto para la FAA
Esta aeronave trae consigo la posibilidad de estar actualizados en el plano internacional e incorporar tecnologías que hoy estamos aprendiendo

Revalorizar la educación clásica en tiempos de la inteligencia artificial: la experiencia de las Escuelas Chesterton
Este modelo busca que las familias y los docentes se animen a innovar volviendo a las raíces, recuperando lo mejor de la tradición educativa católica, combinándolo con la creatividad y las necesidades del siglo XXI



