Introducción
La inteligencia artificial (IA) se ha integrado en todo el ciclo de empleo, desde la búsqueda de candidatos hasta la gestión del desempeño. Si bien estas herramientas pueden mejorar la eficiencia y la toma de decisiones basada en datos, también generan riesgos legales si se utilizan sin las salvaguardas adecuadas.
Herramientas de IA en el proceso de contratación
Las organizaciones utilizan IA para diversas tareas, entre ellas:
Fuente de talento automatizada
Agentes de IA escanean redes profesionales y bases de datos para crear grupos de talento antes de que exista una vacante.
Filtrado semántico
Los sistemas analizan el contexto de la experiencia del candidato, y no solo palabras clave, para determinar la correspondencia con el puesto.
Análisis de video y multimedial
Plataformas de entrevista con IA evalúan no solo lo dicho, sino también el estilo de comunicación y competencias técnicas, generando resúmenes para los reclutadores.
Programación y compromiso automatizados
Chatbots gestionan consultas de candidatos y programan entrevistas, reduciendo significativamente los tiempos de respuesta.
Riesgos legales asociados
Los sistemas de IA pueden excluir de manera desproporcionada a candidatos protegidos por características como edad, discapacidad o origen, incluso cuando los criterios aparentan ser neutrales. Además, la falta de alternativas no basadas en IA para entrevistas o la ausencia de procesos de acomodación pueden generar incumplimientos de normas de igualdad y accesibilidad.
Buenas prácticas para mitigar riesgos
Divulgación y consentimiento
Informar a los candidatos sobre el uso de IA y obtener su consentimiento previo.
Inventario centralizado de herramientas de IA
Documentar el propósito, el tipo de influencia (puntuación, filtrado, etc.) y los datos de entrada de cada herramienta.
Validación y pruebas de sesgo
Exigir a los proveedores estudios que relacionen los resultados de la IA con criterios laborales y realizar pruebas internas para detectar exclusiones indebidas.
Análisis de impacto periódico
Monitorear tasas de selección y puntos de rechazo automatizado para identificar posibles impactos adversos.
Revisión humana obligatoria
Prohibir rechazos totalmente automáticos o establecer procesos claros para que un humano revise y pueda anular decisiones de la IA.
Alternativas no basadas en IA
Ofrecer opciones de entrevista sin video y garantizar que los sistemas de programación puedan adaptarse a necesidades de accesibilidad y observancias religiosas.
Regulaciones emergentes
Diferentes jurisdicciones están adoptando leyes que exigen auditorías de sesgo, divulgación pública, notificaciones anticipadas a los candidatos y sanciones por incumplimiento. Estas normas buscan que los empleadores mantengan la responsabilidad por los resultados de la IA, incluso cuando la herramienta es provista por un tercero.
Conclusión
La IA puede optimizar la contratación, pero sin controles adecuados aumenta la exposición legal. Las empresas deben tratar a la IA como una infraestructura de decisión regulada, garantizando validación, monitoreo continuo, supervisión humana y documentación exhaustiva. Adoptar estas salvaguardas posicionará a los empleadores para cumplir con la normativa actual y futura, reduciendo riesgos y promoviendo procesos de selección justos y transparentes.