
De acuerdo con el estudio “Tendencias de HR 2025″ de la empresa Buk, realizado en Colombia, Chile, Perú y México, un 75% de las empresas reportan serias dificultades para encontrar personal calificado, utilizando en varias ocasiones sistemas de inteligencia artificial para optimizar estos procesos, pero no necesariamente los realizan de forma equitativa.
La integración de la IA en estos procesos está generando nuevas preocupaciones, por su potencial para amplificar sesgos y prejuicios preexistentes en lugar de mitigarlos. Casos conocidos, como el del sistema de selección de Amazon en 2017, evidenciaron cómo la IA puede replicar patrones de discriminación de género al priorizar candidatos masculinos.
PUBLICIDAD
Este fenómeno no es aislado; una investigación de la Universidad de Cambridge, titulada: ¿La IA elimina el sesgo en el reclutamiento?, concluye que estas tecnologías, en lugar de fomentar la diversidad, pueden aumentar la homogeneidad al buscar “candidatos ideales” basados en perfiles históricamente sesgados.
Cómo se manifiestan los sesgos de la IA en procesos de selección

Los hallazgos del estudio destacan múltiples formas en que estos sistemas perpetúan desigualdades, desde sesgos algorítmicos hasta una subrepresentación en los datos analizados.
PUBLICIDAD
En primer lugar, los sistemas de inteligencia artificial se entrenan con datos históricos, lo que puede llevar a la replicación de desigualdades pasadas. Si los datos de entrenamiento priorizan candidatos masculinos para roles de liderazgo, este sesgo se incorporará en las futuras sugerencias del sistema.
Además, el sesgo algorítmico surge cuando los desarrolladores no consideran adecuadamente la diversidad en los algoritmos, lo que puede resultar en exclusiones injustas.
PUBLICIDAD
Un tercer tipo de sesgo, relacionado con la subrepresentación en los datos, afecta a minorías raciales y a mujeres, quienes tienen menor probabilidad de ser seleccionados por la falta de información en el sistema.
Qué implica que la IA siga perpetuando la discriminación en las empresas

Estos sesgos no solo afectan la justicia y la inclusión en los procesos de contratación, sino también tienen un impacto directo en las empresas. La falta de diversidad en la fuerza laboral puede limitar la creatividad y la innovación, aspectos cruciales para competir en mercados globales.
PUBLICIDAD
Además, las organizaciones podrían enfrentar sanciones legales o pérdidas de reputación corporativa, si se demuestra que sus sistemas de IA perpetúan discriminación.
El estudio de la Universidad de Cambridge subraya que la IA, al buscar candidatos que se ajusten al “perfil ideal”, tiende a reducir la diversidad en lugar de ampliarla. Esto genera equipos de trabajo menos representativos y menos capaces de entender las necesidades de una sociedad plural.
PUBLICIDAD
Cuáles son otras preocupaciones de la IA con el uso de la IA

El estudio identifica varias inquietudes entre las organizaciones sobre la aplicación de la inteligencia artificial en recursos humanos. Entre las principales se encuentran la falta de experiencia en el manejo de estas herramientas (57%), dudas relacionadas con la privacidad y la seguridad (49%), la calidad y disponibilidad de los datos (46%), e inquietudes sobre los sesgos de la IA.
Estas preocupaciones reflejan la necesidad de un enfoque más estratégico y cuidadoso en la implementación de sistemas de IA. Sin un control adecuado, las empresas corren el riesgo de perpetuar desigualdades y tomar decisiones poco éticas que afecten su sostenibilidad a largo plazo.
PUBLICIDAD
Cómo pueden las empresas mitigar estos problemas de los sistemas de IA

Una de las claves principales del estudio es garantizar que los equipos responsables del diseño y la gestión de sistemas de IA estén capacitados en la identificación y mitigación de sesgos. Estas herramientas deben contar con una visión diversa y que no corresponda a un patrón específico.
Esto incluye involucrar a los departamentos de recursos humanos en el proceso de desarrollo de estas herramientas, fomentando la colaboración con los equipos tecnológicos.
PUBLICIDAD
Asimismo, se debe priorizar la recolección de datos representativos y diversos para el entrenamiento de los algoritmos, asegurando que todos los grupos demográficos tengan una participación equitativa. La formación continua de los equipos y la adopción de prácticas éticas en el uso de IA son esenciales para minimizar el riesgo de decisiones injustas.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
La inteligencia artificial que detecta contradicciones entre lo que las personas dicen y eligen
Un sistema desarrollado por expertos de la Universidad Cornell expone discrepancias entre los parámetros establecidos y las preferencias expresadas, lo que permite alcanzar procesos más justos y transparentes

Anthropic vendió Cowork para democratizar la IA: las empresas que lo usaron descubrieron que no saben cuántos agentes tienen
Las grandes corporaciones promedian hoy 15 agentes de inteligencia artificial y proyectan alcanzar los 150.000 en los próximos tres años. Sin embargo, solo el 13 % considera contar con una gobernanza adecuada, mientras los responsables tecnológicos ya alertan sobre una proliferación descontrolada de estos sistemas

Por culpa de la IA, la Universidad de Princeton pondrá vigilancia en los exámenes tras más de 133 años
El sistema de honor estudiantil ya no es suficiente ante el auge de trampas con inteligencia artificial

Nvidia busca la perfección: ahora desarrolla robots que actúan igual que en las simulaciones
En colaboración con FANUC, presentan una plataforma que sincroniza dispositivos virtuales y reales en la industria

Por qué debes actualizar hoy Windows 11 y Google Chrome: corrige casi 200 fallos de seguridad críticos
Microsoft y Google publicaron nuevos parches de seguridad que corrigen errores capaces de comprometer computadoras mediante documentos maliciosos




