
Una encuesta publicada recientemente por la plataforma Resume Builder revela una realidad inquietante para empleados y aspirantes: un número cada vez mayor de empresas está usando inteligencia artificial para decidir a quién despiden, promueven o aumentan su salario.
Últimamente, se ha discutido si la IA remplazará a los humanos en varios trabajos, pero ahora surge un nuevo reto para los empleados: quedarse sin empleo por una decisión basada en una predicción o proyección hecha por ChatGPT, Copilot o Gemini.
Cómo las empresas usan la IA para despedir o ascender empleados
El estudio, realizado a partir de las respuestas de 1.342 gerentes estadounidenses con subordinados directos, confirma que la utilización de IA en recursos humanos se ha instalado como una práctica cotidiana para una proporción significativa de los responsables de equipos.
El 60% de los gerentes encuestados admitió recurrir a herramientas de inteligencia artificial para tomar decisiones críticas sobre las carreras de sus empleados.

La encuesta desglosa cómo los responsables emplean la IA en cada etapa de la gestión de personas: el 78% la utiliza para determinar qué empleados reciben aumentos salariales, el 77% la consulta para decidir ascensos, un 66% la emplea en casos de despidos y el 64% la usa incluso para llevar a cabo terminaciones contractuales.
Estas cifras muestran que la influencia de la inteligencia artificial no se limita a tareas administrativas rutinarias, sino que incide directamente en las trayectorias profesionales y la estabilidad laboral.
Qué plataformas de IA se usan para tomar las decisiones
El informe de Resume Builder especifica las plataformas que se han convertido en aliadas fundamentales para los gerentes: el 53% utiliza ChatGPT como su principal asistente, el 29% opta por Copilot de Microsoft y el 16% prefiere Gemini de Google.

La variedad de usos también sorprende. Según los datos revelados, el 97% de los responsables que emplean IA la aprovechan para crear materiales de formación, el 94% la usa para construir planes de desarrollo profesional para sus equipos y el 91% confía en esta tecnología para establecer criterios de evaluación de desempeño o para elaborar estrategias que mejoren los resultados del grupo.
Además, un 88% recurre a la IA para redactar planes de mejora de desempeño (PIP, por sus siglas en inglés).
Cuáles son los riesgos de este tipo de decisiones
A pesar de la sofisticación de estas herramientas, un aspecto llama especialmente la atención: dos tercios de los responsables declararon no haber recibido ninguna formación formal en el uso de IA para la gestión de equipos.
Solo el 32% afirmó haber completado capacitaciones sobre el uso ético de la inteligencia artificial como apoyo en recursos humanos, mientras que el 43% recibió nociones informales y casi una cuarta parte (24%) nunca tuvo acceso a ningún tipo de instrucción al respecto.

Stacie Haller, asesora principal de carrera en Resume Builder, advirtió sobre los peligros de delegar decisiones de alto impacto sin la preparación adecuada.
“Es esencial no perder de vista el factor humano en la gestión de equipos. Si bien la IA puede aportar conocimientos basados en datos, carece de contexto, empatía y juicio. Sus resultados reflejan la calidad de los datos que recibe, que pueden estar sesgados, ser incompletos o manipulados”, aseguró.
El riesgo se intensifica cuando se observa la actitud de algunos líderes frente a la autonomía que otorgan a la IA. Más del 20% reconoció permitir que la inteligencia artificial tome la decisión final —sin intervención humana— sobre promociones, despidos o ascensos.
De ellos, un 5% señaló que lo hace siempre y un 16% con frecuencia. Incluso así, la mayoría aseguró que estaría dispuesta a intervenir si discrepa con la recomendación del sistema, aunque confiar el destino laboral de las personas a un algoritmo supone para muchos expertos una señal de alarma.

El análisis publicado por el New York Magazine alerta sobre otro problema de fondo: los modelos de IA como ChatGPT, al buscar satisfacer las expectativas del usuario, pueden amplificar el fenómeno del sesgo de confirmación.
Esto significa que las preferencias previas del gerente pueden verse reforzadas, no corregidas, por la inteligencia artificial, que tiende a complacer en lugar de desafiar, aunque la solución propuesta no sea la óptima para la organización.
El informe subraya que la objetividad prometida por la tecnología puede verse comprometida, dado que los algoritmos dependen de las instrucciones y los conjuntos de datos proporcionados, que pueden transmitir prejuicios o lagunas.
Últimas Noticias
Cinco claves para que los creadores de contenido expriman al máximo el celular
Las funciones avanzadas de energía, cámara y organización interna se han convertido en herramientas esenciales para quienes buscan resultados profesionales desde el celular

GTA V Online regresa a uno de los protagonistas más recordados de la franquicia
La nueva actualización de GTA Online llegará el 10 de diciembre con el esperado regreso de Michael De Santa y una serie de contenidos inéditos

Cómo liberar espacio en mi correo de Gmail
Google recomienda a los usuarios acceder a la plataforma Google One desde un computador para gestionar el almacenamiento de su cuenta

Amazon trae todos estos juegos gratis para diciembre de 2025: reclama ahora
La selección de diciembre incorpora franquicias emblemáticas como Fallout, Deus Ex y Forgotten Realms, ampliando la oferta para distintos perfiles de jugadores
Bitcoin se mantiene por debajo de los 90.000 USD en el mercado de criptomonedas
El bitcoin fue creado por Satoshi Nakamoto en el 2008 y lanzado al mercado oficialmente el 3 de enero de 2009 con “el bloque de génesis” de 50 monedas



