Cuando la inteligencia artificial discrimina: cumplimiento de los empleadores en la era de la contratación basada en IA (EE.UU.)
Los solicitantes de empleo a menudo se preguntan qué factores pueden impedirles obtener un puesto. Aunque comprenden que la falta de calificaciones o experiencia puede jugar en su contra, es posible que no sean conscientes de que las herramientas de reclutamiento y contratación utilizadas por los empleadores también pueden influir negativamente.
Los procesos que los empleadores utilizan para reducir el grupo de solicitantes y, en última instancia, seleccionar candidatos se están automatizando cada vez más. De hecho, el Foro Económico Mundial informó en 2025 que aproximadamente el 88% de las empresas ya utilizan alguna forma de inteligencia artificial (IA) en la selección de candidatos.
Los riesgos de la IA en la contratación
La IA puede ser una herramienta extremadamente útil para los empleadores al agilizar y personalizar los procesos de contratación, pero su uso no está exento de riesgos. Por ejemplo, una plataforma en línea que empareja la publicación de un trabajo con las credenciales de un solicitante y prioriza a los candidatos para la revisión del empleador basada en una evaluación algorítmica puede parecer conveniente. Sin embargo, estas son exactamente las herramientas cuestionadas en un caso judicial que alega que estos sistemas de contratación basados en IA discriminan ilegalmente a los solicitantes de empleo.
En este caso, un solicitante afirma haber sido rechazado repetidamente por empleadores que utilizan herramientas de contratación basadas en IA. El argumento es que, aunque la empresa proveedora de estas herramientas sostiene que la decisión final la toma el empleador, los rechazos se producen en minutos u horas tras la postulación, sugiriendo que las herramientas automatizadas están tomando decisiones en su nombre.
Implicaciones legales
Además, el solicitante afirma que estas herramientas impactan desproporcionadamente a ciertos grupos, basándose en características protegidas y sesgos de empleadores anteriores. Este caso proporciona una advertencia sobre los riesgos involucrados en el uso de herramientas de IA en las tareas de reclutamiento y contratación. No es el único ejemplo, ya que las demandas por discriminación contra herramientas de IA están en aumento.
Incluso los empleadores con buenas intenciones pueden estar expuestos, ya que es difícil evaluar el cumplimiento cuando se trata de sistemas algorítmicos que generan resultados no transparentes. Una certeza emergente es que los empleadores no pueden ocultarse detrás de la naturaleza automatizada de sus herramientas, arriesgándose a involucrarse en discriminación ilegal, aunque no intencionada.
Recomendaciones para los empleadores
- Comprender el diseño y entrenamiento de las herramientas: Los empleadores deben saber qué se evalúa y cómo se entrenaron las herramientas para detectar sesgos antes de delegar procesos de contratación a ellas.
- Utilizar herramientas transparentes: Es recomendable usar herramientas que expliquen por qué un candidato fue priorizado o despriorizado, en lugar de aquellas que toman decisiones sin justificación.
- Evaluar el funcionamiento de las herramientas regularmente: Mantener una evaluación constante de las herramientas de contratación basadas en IA para identificar posibles evaluaciones discriminatorias.
- Mantener la decisión final en manos humanas: La IA debe ser un apoyo, no una fuente de autoridad; la decisión final siempre debe recaer en las personas responsables del proceso de contratación.
Conclusión
Buscar eficiencia y valor en la contratación no es ilegal; es una práctica comercial inteligente. Sin embargo, los empleadores deben ser conscientes de los riesgos asociados. Mantener una supervisión adecuada y buscar claridad en el proceso de contratación ayudará a mitigar las posibles trampas y asegurará que las prácticas de contratación produzcan candidatos ideales sin dejar fuera a nadie injustamente.