
De acuerdo con el estudio “Tendencias de HR 2025″ de la empresa Buk, realizado en Colombia, Chile, Perú y México, un 75% de las empresas reportan serias dificultades para encontrar personal calificado, utilizando en varias ocasiones sistemas de inteligencia artificial para optimizar estos procesos, pero no necesariamente los realizan de forma equitativa.
La integración de la IA en estos procesos está generando nuevas preocupaciones, por su potencial para amplificar sesgos y prejuicios preexistentes en lugar de mitigarlos. Casos conocidos, como el del sistema de selección de Amazon en 2017, evidenciaron cómo la IA puede replicar patrones de discriminación de género al priorizar candidatos masculinos.
Este fenómeno no es aislado; una investigación de la Universidad de Cambridge, titulada: ¿La IA elimina el sesgo en el reclutamiento?, concluye que estas tecnologías, en lugar de fomentar la diversidad, pueden aumentar la homogeneidad al buscar “candidatos ideales” basados en perfiles históricamente sesgados.
Cómo se manifiestan los sesgos de la IA en procesos de selección

Los hallazgos del estudio destacan múltiples formas en que estos sistemas perpetúan desigualdades, desde sesgos algorítmicos hasta una subrepresentación en los datos analizados.
En primer lugar, los sistemas de inteligencia artificial se entrenan con datos históricos, lo que puede llevar a la replicación de desigualdades pasadas. Si los datos de entrenamiento priorizan candidatos masculinos para roles de liderazgo, este sesgo se incorporará en las futuras sugerencias del sistema.
Además, el sesgo algorítmico surge cuando los desarrolladores no consideran adecuadamente la diversidad en los algoritmos, lo que puede resultar en exclusiones injustas.
Un tercer tipo de sesgo, relacionado con la subrepresentación en los datos, afecta a minorías raciales y a mujeres, quienes tienen menor probabilidad de ser seleccionados por la falta de información en el sistema.
Qué implica que la IA siga perpetuando la discriminación en las empresas

Estos sesgos no solo afectan la justicia y la inclusión en los procesos de contratación, sino también tienen un impacto directo en las empresas. La falta de diversidad en la fuerza laboral puede limitar la creatividad y la innovación, aspectos cruciales para competir en mercados globales.
Además, las organizaciones podrían enfrentar sanciones legales o pérdidas de reputación corporativa, si se demuestra que sus sistemas de IA perpetúan discriminación.
El estudio de la Universidad de Cambridge subraya que la IA, al buscar candidatos que se ajusten al “perfil ideal”, tiende a reducir la diversidad en lugar de ampliarla. Esto genera equipos de trabajo menos representativos y menos capaces de entender las necesidades de una sociedad plural.
Cuáles son otras preocupaciones de la IA con el uso de la IA

El estudio identifica varias inquietudes entre las organizaciones sobre la aplicación de la inteligencia artificial en recursos humanos. Entre las principales se encuentran la falta de experiencia en el manejo de estas herramientas (57%), dudas relacionadas con la privacidad y la seguridad (49%), la calidad y disponibilidad de los datos (46%), e inquietudes sobre los sesgos de la IA.
Estas preocupaciones reflejan la necesidad de un enfoque más estratégico y cuidadoso en la implementación de sistemas de IA. Sin un control adecuado, las empresas corren el riesgo de perpetuar desigualdades y tomar decisiones poco éticas que afecten su sostenibilidad a largo plazo.
Cómo pueden las empresas mitigar estos problemas de los sistemas de IA

Una de las claves principales del estudio es garantizar que los equipos responsables del diseño y la gestión de sistemas de IA estén capacitados en la identificación y mitigación de sesgos. Estas herramientas deben contar con una visión diversa y que no corresponda a un patrón específico.
Esto incluye involucrar a los departamentos de recursos humanos en el proceso de desarrollo de estas herramientas, fomentando la colaboración con los equipos tecnológicos.
Asimismo, se debe priorizar la recolección de datos representativos y diversos para el entrenamiento de los algoritmos, asegurando que todos los grupos demográficos tengan una participación equitativa. La formación continua de los equipos y la adopción de prácticas éticas en el uso de IA son esenciales para minimizar el riesgo de decisiones injustas.
Últimas Noticias
YouTube Premium sube los precios por primera vez desde 2023 y fija nuevas tarifas mensuales
El ajuste impactará a millones de suscriptores, quienes recibirán un aviso con antelación antes del cambio en su facturación

Gmail al estilo WhatsApp: así funcionará el nuevo cifrado de mensajes
El cifrado de extremo a extremo protege tus mensajes para que solo tú y la persona a la que escribes puedan leerlos

CEO de Dell advierte que la escasez de DRAM apenas comienza: “Estamos en las primeras etapas”
Fabricantes priorizan centros de datos frente a dispositivos de consumo, lo que reduce la disponibilidad de componentes y eleva los costos

OpenAI anuncia un plan Pro para ChatGPT: busca competir con Claude y más grandes de inteligencia artificial
La suscripción ofrece mayor uso de Codex, la herramienta clave de programación de OpenAI, sin llegar a ser ilimitada

Microsoft empieza a eliminar Copilot de Windows 11: el Bloc de notas es el primer afectado
El cambio forma parte de una nueva estrategia que busca reducir la presencia visible de la IA en aplicaciones clave del sistema




