Nouvelles règles de recrutement basées sur l’IA et poursuites judiciaires : Ce que les RH doivent savoir
La transformation apportée par l’intelligence artificielle (IA) dans le domaine du recrutement soulève des inquiétudes parmi les régulateurs et les tribunaux. Deux événements marquants survenus en mai 2025 obligent les équipes RH à examiner de plus près leurs outils de recrutement afin d’éviter les risques juridiques et de conformité.
Que se passe-t-il en Californie ?
La Californie s’apprête à mettre en œuvre de nouvelles réglementations sur les droits civiques qui devraient affecter l’utilisation des systèmes de décision automatisés (ADS) dans l’emploi et d’autres programmes soutenus par l’État. Ces règles, qui devraient entrer en vigueur dès le 1er juillet 2025, visent à prévenir la discrimination fondée sur des caractéristiques protégées telles que la race, le sexe, l’âge, le handicap ou la religion.
Bien que ces réglementations ne bannissent pas les outils d’IA, elles rendent illégal l’utilisation de tout système, qu’il soit automatisé ou non, qui entraîne des résultats discriminatoires.
Qu’est-ce qui compte comme discriminatoire ?
Les nouvelles règles ciblent les outils d’IA qui analysent les voix, les expressions faciales, la personnalité ou la disponibilité des candidats, surtout si ces outils entraînent des résultats biaisés.
Exemple : Un outil d’IA qui interprète le fait de ne pas sourire lors d’un entretien vidéo comme un signe d’inimitié pourrait pénaliser injustement des candidats provenant de cultures où sourire moins est courant.
Si un outil d’IA produit des résultats différents pour des personnes appartenant à des groupes protégés, cela pourrait violer la loi, même en l’absence d’intention de discriminer.
Qu’en est-il de la poursuite contre Workday ?
Parallèlement, une importante action collective contre Workday, un fournisseur de technologie RH très populaire, avance dans les tribunaux fédéraux. La plainte ? Que son logiciel de recrutement alimenté par l’IA discrimine les candidats de plus de 40 ans.
Le recours est dirigé par Derek Mobley, un homme noir de plus de 40 ans souffrant d’anxiété et de dépression. Il affirme avoir postulé à plus de 100 emplois en utilisant les systèmes de Workday et avoir été rejeté à chaque fois.
Le 16 mai 2025, un juge a statué que sa plainte pour discrimination fondée sur l’âge pouvait se poursuivre en tant qu’action collective à l’échelle nationale sous la Loi sur la discrimination en matière d’emploi en raison de l’âge (ADEA), ce qui pourrait impliquer des centaines de milliers, voire des millions de chercheurs d’emploi.
Cette affaire est un signal d’alerte pour les employeurs : même si vous n’avez pas conçu l’outil d’IA vous-même, vous pouvez toujours être tenu responsable de l’impact discriminatoire des algorithmes tiers utilisés dans votre processus de recrutement.
Que doivent faire les équipes RH maintenant ?
Quelles que soient vos circonstances, ces développements montrent que la conformité à l’IA est désormais une priorité pour les RH. Voici votre plan d’action :
1. Examinez vos outils. Auditez vos systèmes de recrutement, en particulier ceux impliquant l’IA. Analysent-ils les CV, filtrent-ils les entretiens vidéo ou attribuent-ils des « scores de compatibilité » ? Si oui, demandez une preuve de leur test de biais.
2. Exigez de la transparence de la part du fournisseur. Si vous utilisez des plateformes tierces comme Workday, demandez :
- Documentation des tests de biais,
- Explications claires sur la façon dont les décisions sont prises, et
- Contrats qui vous protègent des risques juridiques.
3. Gardez un humain dans le processus. Ne laissez pas l’IA prendre la décision finale. Assurez-vous qu’une personne des RH examine et peut annuler les décisions automatisées.
4. Suivez les résultats. Analysez régulièrement les données de recrutement. Observez-vous des écarts inexpliqués par âge, race ou sexe ? Ceux-ci pourraient être des signes d’impact disparate, un drapeau rouge juridique.
5. Formez une équipe de gouvernance de l’IA. Créez une équipe interfonctionnelle (RH, juridique, IT) pour établir des politiques, évaluer les systèmes et surveiller l’utilisation continue de l’IA dans l’emploi.
Pourquoi cela importe-t-il ?
Les réglementations de Californie et la poursuite contre Workday ne sont que le début, même si vous n’êtes pas en Californie. Avec le gouvernement fédéral réduisant l’application des lois, les États et les poursuites privées prennent le relais. Cela signifie une exposition juridique accrue pour les entreprises utilisant l’IA, surtout si elles ne surveillent pas de près.
Les RH ne sont plus seulement des utilisateurs de ces outils. Elles sont désormais la première ligne de défense contre les biais générés par l’IA. L’IA peut vous aider à recruter mieux et plus rapidement, mais uniquement si elle est utilisée de manière responsable et équitable. Prenez ces changements au sérieux, prenez de l’avance et assurez-vous que votre processus de recrutement soit à la fois efficace et équitable.