Los solicitantes de empleo piden que se abra la 'caja negra' de las decisiones de contratación de la IA

Reportajes Especiales - Business

Guardar

(Circuits)

Para millones de solicitantes que buscan trabajo en cientos de empresas, el primer obstáculo es superar un sistema de inteligencia artificial que examina sus currículos y evalúa su idoneidad.

El proceso es similar, en cierto modo, a la forma en que las agencias de crédito clasifican a los consumidores y les asignan una puntuación numérica basada en sus finanzas y su historial de préstamos.

Ahora, una demanda presentada por un grupo de solicitantes de empleo afirma que algunas herramientas de selección de empleo mediante IA deberían estar sujetas a los mismos requisitos de la Ley de Información Crediticia Justa que las agencias de crédito. El objetivo de la demanda es obligar a las empresas de IA a revelar más información sobre los datos que recopilan de los solicitantes y cómo los clasifican.

El objetivo de la demanda es una empresa de selección, Eightfold AI, que vende su tecnología como una herramienta para que los empresarios ahorren tiempo y dinero. Mediante fuentes como LinkedIn, Eightfold ha creado un conjunto de datos que, según afirma, abarca más de "un millón de puestos de trabajo, un millón de aptitudes y los perfiles de más de 1000 millones de personas que trabajan en todos los empleos, profesiones, sectores y zonas geográficas".

Cuando los candidatos solicitan un empleo, el software de Eightfold evalúa sus aptitudes y las necesidades de los empresarios, y luego califica a los candidatos en una escala del 1 al 5.

Los solicitantes de empleo dicen que la herramienta de selección puede convertirse en un obstáculo algorítmico, que impide a los candidatos llegar a hablar con un gerente de contratación humano y no les da información sobre sus puntuaciones ni sobre cómo se generó la calificación. Si la herramienta comete errores, los candidatos no tienen forma de corregirlos.

"Creo que merezco saber lo que se recopila sobre mí y se comparte con los empleadores", señaló en una entrevista Erin Kistler, una de las demandantes. "No me dan ninguna información, así que no puedo abordar los problemas que tenga".

Kistler es licenciada en informática y tiene décadas de experiencia en el sector tecnológico. Entre los miles de empleos que ha buscado en el último año, de los que ha hecho un seguimiento meticuloso, solo el 0,3 por ciento de sus solicitudes han progresado hasta un seguimiento o una entrevista. Varias de sus solicitudes se enviaron a través del sistema informático de Eightfold.

Un representante de Eightfold, con sede en Santa Clara, California, no respondió a las solicitudes para hacer comentarios.

La demanda, presentada contra Eightfold en el Tribunal Superior del Condado de Contra Costa, en California, es un primer intento de lo que los empresarios y sus abogados esperan que sea una oleada de impugnaciones del uso de la IA en el proceso de contratación.

David J. Walton, abogado de Filadelfia que trabaja con empresarios en cuestiones de IA y no está implicado en la demanda, dijo que las empresas podrían argumentar válidamente que estas herramientas difieren de los sistemas de puntuación crediticia. El software de contratación, agregó, puede considerarse simplemente como una clasificación de candidatos, del mismo modo que un reclutador humano podría clasificar a los solicitantes en niveles de candidatos deseables y menos deseables.

Aun así, Walton aseguró que, a medida que las empresas amplían los límites de lo que pueden hacer las herramientas de IA, a menudo operan en zonas grises desde el punto de vista legal, sobre todo en lo que respecta a la privacidad de los datos y a la tecnología que puede discriminar ilegalmente a las personas, aunque no esté explícitamente entrenada para ello.

"Estas herramientas están diseñadas para ser parciales, es decir, están diseñadas para encontrar un determinado tipo de persona", explicó. "Así que están diseñadas para ser parciales, pero no para serlo indebidamente. Y esa es una línea muy delgada".

La demanda de Kistler, presentada por Outten & Golden y Towards Justice, un bufete de abogados sin ánimo de lucro de Denver, con la ayuda de antiguos abogados de la Oficina de Protección Financiera del Consumidor y de la Comisión de Igualdad de Oportunidades en el Empleo, adopta un enfoque relativamente novedoso para cuestionar la tecnología de IA.

Se trata de uno de los primeros casos en los que se invocan las leyes de información crediticia para intentar proteger a los solicitantes contra lo que algunos denominan decisiones de empleo de "caja negra", en las que el solicitante no sabe por qué lo descalificaron.

El Congreso promulgó la Ley de Informes de Crédito Justos en 1970, no mucho después de que las agencias de informes de crédito empezaran a utilizar bases de datos informáticas para recopilar sus expedientes de información personal y convertirlos en puntuaciones numéricas. Para proteger a las personas contra los errores en esos registros, los legisladores exigieron a las agencias de informes que revelaran esa información a los consumidores y les permitieran impugnar inexactitudes.

La ley es más amplia que los requisitos de información crediticia que le dan nombre. Define un "informe del consumidor" como cualquier recopilación de información sobre las "características personales" de alguien que se utiliza para determinar su idoneidad para diversos servicios financieros o "fines laborales".

"No hay ninguna exención de IA en nuestras leyes", comentó David Seligman, director ejecutivo de Hacia la Justicia. "Frecuentemente, el modelo de negocio de estas empresas consiste en desplegar estas nuevas tecnologías, envolverlas en un lenguaje nuevo y elegante y, en última instancia, simplemente violar los derechos de las personas".

Seligman cree que la ley exige tanto a Eightfold como a las empresas que utilizan su tecnología que revelen a los solicitantes qué datos se están recopilando y les ofrezcan la oportunidad de impugnar y corregir las inexactitudes. La demanda, que aspira a convertirse en una acción colectiva, pide una indemnización económica no especificada y una orden para que Eightfold cumpla las leyes estatales y federales de información sobre el consumidor.

Otras demandas se han dirigido contra sistemas de software de IA por supuestas infracciones de las leyes federales y estatales contra la discriminación. La más destacada es una demanda presentada en 2023 contra Workday ante el Tribunal de Distrito de Estados Unidos en San Francisco, que afirma que el sistema de la empresa, otro de los más populares para seleccionar a los solicitantes de empleo, discrimina ilegalmente a algunas personas, como los solicitantes de empleo de más edad, los discapacitados y los solicitantes de raza negra.

La jueza Rita F. Lin rechazó la moción de Workday de desestimar el caso, al considerar que las pruebas aportadas por los demandantes --incluido un aviso de rechazo que un solicitante de empleo recibió a la 1:50 de la madrugada, menos de una hora después de enviar su solicitud-- "apoyan de forma plausible la inferencia de que las herramientas algorítmicas de Workday rechazan desproporcionadamente a los solicitantes por factores distintos a los requisitos, como la raza, la edad o la discapacidad de los candidatos".

En mayo, concedió la aprobación preliminar para que el caso procediera como una acción colectiva que posiblemente podría incluir a millones de solicitantes de empleo rechazados. Un portavoz de Workday señaló que las afirmaciones de la demanda son falsas. "Las herramientas de contratación de Workday basadas en IA no están entrenadas para utilizar --ni siquiera identificar-- características protegidas como la raza, la edad o la discapacidad", afirmó la empresa mediante un comunicado.

Una nota orientativa de 2024 de la Oficina de Protección Financiera del Consumidor opinaba que los expedientes y puntuaciones creados con fines de contratación estaban sujetos a la Ley de Informes de Crédito Justos y que los proveedores que los creaban estaban legalmente calificados como agencias de informes de consumidores. Estas notas sirven como advertencias para las empresas, pues les indican cómo pretenden los reguladores hacer cumplir las leyes que supervisan.

Bajo el gobierno de Donald Trump, la oficina cambió su postura. Russell Vought, director en funciones de la oficina --que durante todo su periodo ha intentado demoler y cerrar la agencia-- anuló la nota orientativa en mayo.

Los litigios corporativos suelen durar años, y es poco probable que el caso contra Eightfold avance con rapidez. Sin embargo, los problemas subyacentes también llevan años de gestación.

Jenny Yang, expresidenta de la Comisión para la Igualdad de Oportunidades en el Empleo nombrada durante el gobierno de Obama y una de las abogadas que representan a los demandantes en la querella, dijo que la comisión empezó a estudiar los sistemas algorítmicos de contratación hace más de una década.

"Nos dimos cuenta de que estaban cambiando de manera fundamental la forma de contratar a la gente. La gente era rechazada en mitad de la noche y nadie sabía por qué", afirmó.

Erin Kistler en su casa de Los Ángeles, 20 de enero de 2026. (Alex Welsh/The New York Times)

El director de la Oficina de Gestión y Presupuesto de la Casa Blanca, Russell Vought, declara ante el Comité de Asignaciones del Senado en Capitol Hill, Washington, 25 de junio de 2025. (Tierney L. Cross/The New York Times)