Discriminación en la contratación: riesgos de la IA en el proceso laboral

Cuando la inteligencia artificial discrimina: cumplimiento de los empleadores en la era de la contratación basada en IA (EE.UU.)

Los solicitantes de empleo a menudo se preguntan qué factores pueden impedirles obtener un puesto. Aunque comprenden que la falta de calificaciones o experiencia puede jugar en su contra, es posible que no sean conscientes de que las herramientas de reclutamiento y contratación utilizadas por los empleadores también pueden influir negativamente.

Los procesos que los empleadores utilizan para reducir el grupo de solicitantes y, en última instancia, seleccionar candidatos se están automatizando cada vez más. De hecho, el Foro Económico Mundial informó en 2025 que aproximadamente el 88% de las empresas ya utilizan alguna forma de inteligencia artificial (IA) en la selección de candidatos.

Los riesgos de la IA en la contratación

La IA puede ser una herramienta extremadamente útil para los empleadores al agilizar y personalizar los procesos de contratación, pero su uso no está exento de riesgos. Por ejemplo, una plataforma en línea que empareja la publicación de un trabajo con las credenciales de un solicitante y prioriza a los candidatos para la revisión del empleador basada en una evaluación algorítmica puede parecer conveniente. Sin embargo, estas son exactamente las herramientas cuestionadas en un caso judicial que alega que estos sistemas de contratación basados en IA discriminan ilegalmente a los solicitantes de empleo.

En este caso, un solicitante afirma haber sido rechazado repetidamente por empleadores que utilizan herramientas de contratación basadas en IA. El argumento es que, aunque la empresa proveedora de estas herramientas sostiene que la decisión final la toma el empleador, los rechazos se producen en minutos u horas tras la postulación, sugiriendo que las herramientas automatizadas están tomando decisiones en su nombre.

Implicaciones legales

Además, el solicitante afirma que estas herramientas impactan desproporcionadamente a ciertos grupos, basándose en características protegidas y sesgos de empleadores anteriores. Este caso proporciona una advertencia sobre los riesgos involucrados en el uso de herramientas de IA en las tareas de reclutamiento y contratación. No es el único ejemplo, ya que las demandas por discriminación contra herramientas de IA están en aumento.

Incluso los empleadores con buenas intenciones pueden estar expuestos, ya que es difícil evaluar el cumplimiento cuando se trata de sistemas algorítmicos que generan resultados no transparentes. Una certeza emergente es que los empleadores no pueden ocultarse detrás de la naturaleza automatizada de sus herramientas, arriesgándose a involucrarse en discriminación ilegal, aunque no intencionada.

Recomendaciones para los empleadores

  • Comprender el diseño y entrenamiento de las herramientas: Los empleadores deben saber qué se evalúa y cómo se entrenaron las herramientas para detectar sesgos antes de delegar procesos de contratación a ellas.
  • Utilizar herramientas transparentes: Es recomendable usar herramientas que expliquen por qué un candidato fue priorizado o despriorizado, en lugar de aquellas que toman decisiones sin justificación.
  • Evaluar el funcionamiento de las herramientas regularmente: Mantener una evaluación constante de las herramientas de contratación basadas en IA para identificar posibles evaluaciones discriminatorias.
  • Mantener la decisión final en manos humanas: La IA debe ser un apoyo, no una fuente de autoridad; la decisión final siempre debe recaer en las personas responsables del proceso de contratación.

Conclusión

Buscar eficiencia y valor en la contratación no es ilegal; es una práctica comercial inteligente. Sin embargo, los empleadores deben ser conscientes de los riesgos asociados. Mantener una supervisión adecuada y buscar claridad en el proceso de contratación ayudará a mitigar las posibles trampas y asegurará que las prácticas de contratación produzcan candidatos ideales sin dejar fuera a nadie injustamente.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...