Nouvelles règles d’embauche basées sur l’IA : les défis pour les employeurs

A checklist

Nouvelles règles de recrutement basées sur l’IA et poursuites judiciaires : Ce que les RH doivent savoir

La transformation apportée par l’intelligence artificielle (IA) dans le domaine du recrutement soulève des inquiétudes parmi les régulateurs et les tribunaux. Deux événements marquants survenus en mai 2025 obligent les équipes RH à examiner de plus près leurs outils de recrutement afin d’éviter les risques juridiques et de conformité.

Que se passe-t-il en Californie ?

La Californie s’apprête à mettre en œuvre de nouvelles réglementations sur les droits civiques qui devraient affecter l’utilisation des systèmes de décision automatisés (ADS) dans l’emploi et d’autres programmes soutenus par l’État. Ces règles, qui devraient entrer en vigueur dès le 1er juillet 2025, visent à prévenir la discrimination fondée sur des caractéristiques protégées telles que la race, le sexe, l’âge, le handicap ou la religion.

Bien que ces réglementations ne bannissent pas les outils d’IA, elles rendent illégal l’utilisation de tout système, qu’il soit automatisé ou non, qui entraîne des résultats discriminatoires.

Qu’est-ce qui compte comme discriminatoire ?

Les nouvelles règles ciblent les outils d’IA qui analysent les voix, les expressions faciales, la personnalité ou la disponibilité des candidats, surtout si ces outils entraînent des résultats biaisés.

Exemple : Un outil d’IA qui interprète le fait de ne pas sourire lors d’un entretien vidéo comme un signe d’inimitié pourrait pénaliser injustement des candidats provenant de cultures où sourire moins est courant.

Si un outil d’IA produit des résultats différents pour des personnes appartenant à des groupes protégés, cela pourrait violer la loi, même en l’absence d’intention de discriminer.

Qu’en est-il de la poursuite contre Workday ?

Parallèlement, une importante action collective contre Workday, un fournisseur de technologie RH très populaire, avance dans les tribunaux fédéraux. La plainte ? Que son logiciel de recrutement alimenté par l’IA discrimine les candidats de plus de 40 ans.

Le recours est dirigé par Derek Mobley, un homme noir de plus de 40 ans souffrant d’anxiété et de dépression. Il affirme avoir postulé à plus de 100 emplois en utilisant les systèmes de Workday et avoir été rejeté à chaque fois.

Le 16 mai 2025, un juge a statué que sa plainte pour discrimination fondée sur l’âge pouvait se poursuivre en tant qu’action collective à l’échelle nationale sous la Loi sur la discrimination en matière d’emploi en raison de l’âge (ADEA), ce qui pourrait impliquer des centaines de milliers, voire des millions de chercheurs d’emploi.

Cette affaire est un signal d’alerte pour les employeurs : même si vous n’avez pas conçu l’outil d’IA vous-même, vous pouvez toujours être tenu responsable de l’impact discriminatoire des algorithmes tiers utilisés dans votre processus de recrutement.

Que doivent faire les équipes RH maintenant ?

Quelles que soient vos circonstances, ces développements montrent que la conformité à l’IA est désormais une priorité pour les RH. Voici votre plan d’action :

1. Examinez vos outils. Auditez vos systèmes de recrutement, en particulier ceux impliquant l’IA. Analysent-ils les CV, filtrent-ils les entretiens vidéo ou attribuent-ils des « scores de compatibilité » ? Si oui, demandez une preuve de leur test de biais.

2. Exigez de la transparence de la part du fournisseur. Si vous utilisez des plateformes tierces comme Workday, demandez :

  • Documentation des tests de biais,
  • Explications claires sur la façon dont les décisions sont prises, et
  • Contrats qui vous protègent des risques juridiques.

3. Gardez un humain dans le processus. Ne laissez pas l’IA prendre la décision finale. Assurez-vous qu’une personne des RH examine et peut annuler les décisions automatisées.

4. Suivez les résultats. Analysez régulièrement les données de recrutement. Observez-vous des écarts inexpliqués par âge, race ou sexe ? Ceux-ci pourraient être des signes d’impact disparate, un drapeau rouge juridique.

5. Formez une équipe de gouvernance de l’IA. Créez une équipe interfonctionnelle (RH, juridique, IT) pour établir des politiques, évaluer les systèmes et surveiller l’utilisation continue de l’IA dans l’emploi.

Pourquoi cela importe-t-il ?

Les réglementations de Californie et la poursuite contre Workday ne sont que le début, même si vous n’êtes pas en Californie. Avec le gouvernement fédéral réduisant l’application des lois, les États et les poursuites privées prennent le relais. Cela signifie une exposition juridique accrue pour les entreprises utilisant l’IA, surtout si elles ne surveillent pas de près.

Les RH ne sont plus seulement des utilisateurs de ces outils. Elles sont désormais la première ligne de défense contre les biais générés par l’IA. L’IA peut vous aider à recruter mieux et plus rapidement, mais uniquement si elle est utilisée de manière responsable et équitable. Prenez ces changements au sérieux, prenez de l’avance et assurez-vous que votre processus de recrutement soit à la fois efficace et équitable.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...