
La inteligencia artificial está transformando los procesos de contratación en empresas de todo el mundo, pero un nuevo estudio advierte sobre un problema inesperado: los sistemas automatizados de selección laboral tienden a favorecer los currículums creados con IA y a penalizar aquellos redactados de manera completamente humana.
La investigación, titulada AI Self-preferencing in Algorithmic Hiring, concluye que los modelos de lenguaje utilizados para filtrar candidatos presentan una fuerte inclinación hacia textos escritos con estructuras similares a las que ellos mismos generan.
PUBLICIDAD
Según los investigadores, esta preferencia puede alterar los procesos de contratación y dejar fuera a candidatos calificados simplemente por no utilizar herramientas de IA para redactar sus CV. Cabe detallar que este estudio fue desarrollado por los investigadores Jiannan Xu, Gujie Li y Jane Y Jiang, quienes analizaron el comportamiento de modelos de lenguaje aplicados a sistemas de recursos humanos.

Los resultados muestran que las IA presentan una preferencia de entre el 67 % y el 82 % por textos redactados con estilos, vocabulario y formatos similares a los producidos por otros modelos de inteligencia artificial. En términos prácticos, un candidato que utiliza la misma IA que emplea una empresa para analizar postulaciones puede tener hasta un 60 % más de probabilidades de avanzar en un proceso de selección frente a una persona con las mismas capacidades y experiencia, pero con un currículum escrito manualmente.
PUBLICIDAD
La investigación señala que este fenómeno ocurre porque los algoritmos consideran más “claros”, “eficientes” o “correctos” los textos que se alinean con sus propios patrones lingüísticos. Como consecuencia, las expresiones naturales y personales propias de la escritura humana pueden ser interpretadas como menos adecuadas o fuera del formato esperado.
El sesgo aparece en diferentes sectores, aunque los investigadores detectaron una mayor incidencia en áreas administrativas y empresariales. Profesiones relacionadas con contabilidad, ventas y gestión corporativa resultan especialmente vulnerables debido a que sus procesos de selección suelen depender de estructuras rígidas y criterios automatizados.
PUBLICIDAD

En estos casos, la IA tiende a descartar rápidamente currículums con estilos menos estandarizados, incluso si los candidatos cumplen con los requisitos del puesto. Según el estudio, la automatización excesiva puede provocar que empresas dejen vacantes sin cubrir porque el sistema continúa buscando un perfil “ideal” basado en patrones generados por la propia inteligencia artificial.
El informe advierte además sobre los riesgos de delegar completamente la contratación a sistemas automatizados sin supervisión humana. Los investigadores consideran que la IA puede convertirse en una barrera invisible que favorece a quienes saben optimizar sus postulaciones para los algoritmos, en lugar de evaluar únicamente el talento o la experiencia profesional.
PUBLICIDAD
El uso de inteligencia artificial en recursos humanos se ha expandido rápidamente en los últimos años. Muchas compañías emplean modelos automatizados para revisar miles de postulaciones, filtrar palabras clave, evaluar habilidades y clasificar candidatos antes de que una persona revise los perfiles.

Aunque estas herramientas permiten acelerar procesos y reducir costos, especialistas en tecnología y ética vienen alertando sobre posibles sesgos algorítmicos relacionados con género, lenguaje, edad o formación académica. El nuevo estudio añade ahora otro problema: la posibilidad de que las IA favorezcan contenidos creados por otras IA.
PUBLICIDAD
Pese a ello, los autores sostienen que el problema puede corregirse. Entre las soluciones planteadas figura reducir la rigidez de los algoritmos y modificar los criterios de evaluación para que los sistemas reconozcan estilos de redacción humanos más diversos.
También recomiendan mantener supervisión humana en las etapas críticas de contratación y evitar que las decisiones dependan exclusivamente de herramientas automatizadas.
PUBLICIDAD
La investigación concluye que las empresas deberán encontrar un equilibrio entre automatización y criterio humano para evitar procesos de selección sesgados. De lo contrario, la inteligencia artificial podría terminar contratando perfiles diseñados para agradar a otras máquinas, dejando de lado candidatos reales con capacidades y experiencia valiosas.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Sega cancela su proyecto “superjuego” y abandona el modelo free-to-play
Sega reorganiza su estrategia por completo. Menos apuestas por juegos como servicio y mayor enfoque en franquicias premium tradicionales

Los mensajes entre iPhone y Android ahora están más protegidos: llega el cifrado
Esta función está disponible para quienes actualicen a iOS 26.5 y cuenten con operador compatible

Puedes ser sancionado por 8.000 años si juegas Forza Horizon 6 antes de su lanzamiento
Debido a la filtración, la versión Premium del juego perdió sentido porque muchos pudieron disfrutarlo antes sin pagar

Google atrapó al primer hacker que usó inteligencia artificial para romper una cerradura digital: hay miles más y no los vamos a ver venir
Una banda criminal le pidió a un modelo de IA que descubriera una falla inédita en un software muy usado y preparaba un ataque masivo: el jefe de inteligencia de Google lo llama “la punta del iceberg”

Razones por la que los padres no deben usar en exceso el control parental del celular
Aplicaciones que rastrean ubicación, mensajes y redes sociales abren un debate sobre los límites entre protección, privacidad y educación digital




