Introduction
L’utilisation de l’intelligence artificielle (IA) dans le processus de recrutement se développe rapidement, offrant des gains d’efficacité mais également des risques juridiques importants. Cet article examine les pratiques courantes, les risques associés et les obligations légales émergentes aux États-Unis.
Utilisation de l’IA dans le recrutement
Outils et fonctions courants
Les employeurs utilisent l’IA pour rédiger les descriptions de poste, cibler les annonces, sourcer les candidats et classer les CV grâce à des critères de mots‑clés, d’expérience ou de compétences présumées. Parmi les technologies les plus répandues figurent :
- Agentic Sourcing : des agents automatisés qui scrutent les réseaux professionnels et les bases de données pour constituer des viviers de talents avant même l’ouverture d’un poste.
- Semantic Screening : correspondance basée sur les compétences qui analyse le contexte de l’expérience du candidat plutôt que de simples mots‑clés.
- Analyse vidéo et multimodale : plateformes d’entretien qui évaluent non seulement le contenu verbal mais aussi le style de communication et les compétences techniques.
- Planification automatisée et engagement : chatbots disponibles 24 h/24 pour répondre aux questions des candidats et organiser les entretiens, réduisant le délai de pourvoi de 40 à 50 % dans certains secteurs.
Risques juridiques liés à l’IA
Discrimination et biais
Les outils d’évaluation peuvent exclure de façon disproportionnée des candidats protégés, même si les critères semblent neutres. Par exemple, les filtres de CV qui privilégient l’ancienneté ou les dates de diplôme peuvent désavantager les personnes âgées, tandis que les systèmes qui évaluent la rapidité d’exécution ou le style de communication peuvent pénaliser les personnes en situation de handicap.
Lorsque les interfaces de chatbot ne proposent pas d’alternatives accessibles, l’employeur peut violer les obligations d’accommodation prévues par la loi sur les personnes handicapées.
Responsabilité de l’employeur
Les décisions prises par l’IA sont juridiquement imputables à l’employeur, même si le logiciel est fourni par un tiers. L’employeur doit donc assurer la transparence, la validité et la défenseabilité des outils utilisés.
Mesures de conformité recommandées
Transparence et consentement
Informer les candidats de l’utilisation de l’IA et obtenir leur consentement préalable.
Inventaire et documentation
Maintenir un registre centralisé des outils IA, précisant leur objectif (sourcing, classement, planification, etc.), leurs modes de décision (score, filtre, recommandation) et les données d’entrée (texte de CV, données biométriques, voix, etc.).
Validation et audit
Exiger des fournisseurs des études de validation liant les résultats aux critères liés à l’emploi et des informations sur les données d’entraînement et les méthodes de mitigation des biais. Réaliser des tests indépendants et des analyses d’impact négatif périodiques.
Intervention humaine
Éviter les rejets totalement automatisés sans révision humaine et définir clairement qui peut intervenir pour contester ou ajuster les recommandations de l’IA.
Alternatives non‑IA
Proposer des options d’entretien sans vidéo et garantir que les systèmes de planification peuvent répondre aux besoins d’accessibilité et aux observances religieuses.
Réglementations émergentes aux États‑Unis
New York City
Obligation de réaliser un audit de biais annuel, de publier le résumé de cet audit et d’aviser les candidats au moins dix jours ouvrables de l’utilisation de l’IA, avec des consignes pour demander une procédure alternative. Les sanctions débutent à 500 $ et peuvent atteindre 1 500 $ par violation.
Illinois
Interdiction d’utiliser les codes postaux comme proxy de caractéristiques protégées. Les employeurs doivent divulguer l’usage de l’IA dans les entretiens vidéo, expliquer le fonctionnement, obtenir le consentement et détruire les enregistrements sur demande. Le respect du BIPA impose des exigences strictes en matière de données biométriques.
Colorado (proposition)
Le projet de loi prévoit des obligations de diligence raisonnable, de gestion des risques IA, d’évaluation d’impact et de droit à l’appel pour les décisions influencées par l’IA. Les petites entreprises de moins de 50 salariés seraient exemptées.
Californie
Les réglementations du FEHA intègrent explicitement les exigences anti‑discrimination aux outils IA, imposant la conservation des dossiers IA pendant au moins quatre ans et encourageant les tests de biais pour démontrer la conformité.
Conclusion
L’IA peut optimiser le recrutement, mais elle expose les employeurs à des risques juridiques considérables si elle n’est pas encadrée par des pratiques de transparence, de validation et de surveillance continue. En adoptant les mesures recommandées et en suivant les évolutions législatives, les organisations peuvent réduire les risques de discrimination, garantir la conformité et tirer parti des avantages technologiques tout en maintenant un contrôle humain essentiel.