Sistemas automatizados de selección laboral favorecen currículums creados por IA y rechazan los humanos

Investigadores detectaron que los sistemas automatizados de contratación muestran preferencia por textos con estructuras y vocabulario generados por IA

Guardar
Google icon
Robot futurista con pantallas holográficas de currículums en una oficina moderna. Una trituradora expulsa documentos rechazados a un cesto, con personas observando.
Un robot de IA gestiona la selección de personal analizando currículums en pantallas holográficas, mientras los documentos impresos son automáticamente rechazados en una moderna oficina. (Imagen Ilustrativa Infobae)

La inteligencia artificial está transformando los procesos de contratación en empresas de todo el mundo, pero un nuevo estudio advierte sobre un problema inesperado: los sistemas automatizados de selección laboral tienden a favorecer los currículums creados con IA y a penalizar aquellos redactados de manera completamente humana.

La investigación, titulada AI Self-preferencing in Algorithmic Hiring, concluye que los modelos de lenguaje utilizados para filtrar candidatos presentan una fuerte inclinación hacia textos escritos con estructuras similares a las que ellos mismos generan.

PUBLICIDAD

Según los investigadores, esta preferencia puede alterar los procesos de contratación y dejar fuera a candidatos calificados simplemente por no utilizar herramientas de IA para redactar sus CV. Cabe detallar que este estudio fue desarrollado por los investigadores Jiannan Xu, Gujie Li y Jane Y Jiang, quienes analizaron el comportamiento de modelos de lenguaje aplicados a sistemas de recursos humanos.

Una figura de inteligencia artificial transparente con código superpuesto revisa currículums digitales en una pantalla curva. Se marcan en verde (IA) y rojo (humanos).
Una inteligencia artificial con forma humana revisa currículums digitales, destacando los generados por IA en verde y los escritos por humanos en rojo, en un entorno de datos futurista. (Imagen Ilustrativa Infobae)

Los resultados muestran que las IA presentan una preferencia de entre el 67 % y el 82 % por textos redactados con estilos, vocabulario y formatos similares a los producidos por otros modelos de inteligencia artificial. En términos prácticos, un candidato que utiliza la misma IA que emplea una empresa para analizar postulaciones puede tener hasta un 60 % más de probabilidades de avanzar en un proceso de selección frente a una persona con las mismas capacidades y experiencia, pero con un currículum escrito manualmente.

PUBLICIDAD

La investigación señala que este fenómeno ocurre porque los algoritmos consideran más “claros”, “eficientes” o “correctos” los textos que se alinean con sus propios patrones lingüísticos. Como consecuencia, las expresiones naturales y personales propias de la escritura humana pueden ser interpretadas como menos adecuadas o fuera del formato esperado.

El sesgo aparece en diferentes sectores, aunque los investigadores detectaron una mayor incidencia en áreas administrativas y empresariales. Profesiones relacionadas con contabilidad, ventas y gestión corporativa resultan especialmente vulnerables debido a que sus procesos de selección suelen depender de estructuras rígidas y criterios automatizados.

Un centro de RRHH futurista con pantallas holográficas mostrando currículums y datos, dos brazos robóticos, y documentos físicos sobre un escritorio.
En un centro de recursos humanos futurista, robots y algoritmos evalúan perfiles laborales digitalizados, mientras pantallas interactivas muestran la interacción entre el lenguaje humano y el generado por inteligencia artificial. (Imagen Ilustrativa Infobae)

En estos casos, la IA tiende a descartar rápidamente currículums con estilos menos estandarizados, incluso si los candidatos cumplen con los requisitos del puesto. Según el estudio, la automatización excesiva puede provocar que empresas dejen vacantes sin cubrir porque el sistema continúa buscando un perfil “ideal” basado en patrones generados por la propia inteligencia artificial.

El informe advierte además sobre los riesgos de delegar completamente la contratación a sistemas automatizados sin supervisión humana. Los investigadores consideran que la IA puede convertirse en una barrera invisible que favorece a quienes saben optimizar sus postulaciones para los algoritmos, en lugar de evaluar únicamente el talento o la experiencia profesional.

El uso de inteligencia artificial en recursos humanos se ha expandido rápidamente en los últimos años. Muchas compañías emplean modelos automatizados para revisar miles de postulaciones, filtrar palabras clave, evaluar habilidades y clasificar candidatos antes de que una persona revise los perfiles.

Imagen dividida que muestra una mano humana escribiendo en un currículum y una mano robótica interactuando con una pantalla holográfica de IA y un teclado.
La imagen ilustra la dualidad en la evaluación de perfiles laborales, comparando un currículum escrito a mano con una revisión automatizada por inteligencia artificial y robótica en un moderno centro de recursos humanos. (Imagen Ilustrativa Infobae)

Aunque estas herramientas permiten acelerar procesos y reducir costos, especialistas en tecnología y ética vienen alertando sobre posibles sesgos algorítmicos relacionados con género, lenguaje, edad o formación académica. El nuevo estudio añade ahora otro problema: la posibilidad de que las IA favorezcan contenidos creados por otras IA.

Pese a ello, los autores sostienen que el problema puede corregirse. Entre las soluciones planteadas figura reducir la rigidez de los algoritmos y modificar los criterios de evaluación para que los sistemas reconozcan estilos de redacción humanos más diversos.

También recomiendan mantener supervisión humana en las etapas críticas de contratación y evitar que las decisiones dependan exclusivamente de herramientas automatizadas.

La investigación concluye que las empresas deberán encontrar un equilibrio entre automatización y criterio humano para evitar procesos de selección sesgados. De lo contrario, la inteligencia artificial podría terminar contratando perfiles diseñados para agradar a otras máquinas, dejando de lado candidatos reales con capacidades y experiencia valiosas.

PUBLICIDAD

PUBLICIDAD