Nouvelles règles d’embauche basées sur l’IA : les défis pour les employeurs

A checklist

Nouvelles règles de recrutement basées sur l’IA et poursuites judiciaires : Ce que les RH doivent savoir

La transformation apportée par l’intelligence artificielle (IA) dans le domaine du recrutement soulève des inquiétudes parmi les régulateurs et les tribunaux. Deux événements marquants survenus en mai 2025 obligent les équipes RH à examiner de plus près leurs outils de recrutement afin d’éviter les risques juridiques et de conformité.

Que se passe-t-il en Californie ?

La Californie s’apprête à mettre en œuvre de nouvelles réglementations sur les droits civiques qui devraient affecter l’utilisation des systèmes de décision automatisés (ADS) dans l’emploi et d’autres programmes soutenus par l’État. Ces règles, qui devraient entrer en vigueur dès le 1er juillet 2025, visent à prévenir la discrimination fondée sur des caractéristiques protégées telles que la race, le sexe, l’âge, le handicap ou la religion.

Bien que ces réglementations ne bannissent pas les outils d’IA, elles rendent illégal l’utilisation de tout système, qu’il soit automatisé ou non, qui entraîne des résultats discriminatoires.

Qu’est-ce qui compte comme discriminatoire ?

Les nouvelles règles ciblent les outils d’IA qui analysent les voix, les expressions faciales, la personnalité ou la disponibilité des candidats, surtout si ces outils entraînent des résultats biaisés.

Exemple : Un outil d’IA qui interprète le fait de ne pas sourire lors d’un entretien vidéo comme un signe d’inimitié pourrait pénaliser injustement des candidats provenant de cultures où sourire moins est courant.

Si un outil d’IA produit des résultats différents pour des personnes appartenant à des groupes protégés, cela pourrait violer la loi, même en l’absence d’intention de discriminer.

Qu’en est-il de la poursuite contre Workday ?

Parallèlement, une importante action collective contre Workday, un fournisseur de technologie RH très populaire, avance dans les tribunaux fédéraux. La plainte ? Que son logiciel de recrutement alimenté par l’IA discrimine les candidats de plus de 40 ans.

Le recours est dirigé par Derek Mobley, un homme noir de plus de 40 ans souffrant d’anxiété et de dépression. Il affirme avoir postulé à plus de 100 emplois en utilisant les systèmes de Workday et avoir été rejeté à chaque fois.

Le 16 mai 2025, un juge a statué que sa plainte pour discrimination fondée sur l’âge pouvait se poursuivre en tant qu’action collective à l’échelle nationale sous la Loi sur la discrimination en matière d’emploi en raison de l’âge (ADEA), ce qui pourrait impliquer des centaines de milliers, voire des millions de chercheurs d’emploi.

Cette affaire est un signal d’alerte pour les employeurs : même si vous n’avez pas conçu l’outil d’IA vous-même, vous pouvez toujours être tenu responsable de l’impact discriminatoire des algorithmes tiers utilisés dans votre processus de recrutement.

Que doivent faire les équipes RH maintenant ?

Quelles que soient vos circonstances, ces développements montrent que la conformité à l’IA est désormais une priorité pour les RH. Voici votre plan d’action :

1. Examinez vos outils. Auditez vos systèmes de recrutement, en particulier ceux impliquant l’IA. Analysent-ils les CV, filtrent-ils les entretiens vidéo ou attribuent-ils des « scores de compatibilité » ? Si oui, demandez une preuve de leur test de biais.

2. Exigez de la transparence de la part du fournisseur. Si vous utilisez des plateformes tierces comme Workday, demandez :

  • Documentation des tests de biais,
  • Explications claires sur la façon dont les décisions sont prises, et
  • Contrats qui vous protègent des risques juridiques.

3. Gardez un humain dans le processus. Ne laissez pas l’IA prendre la décision finale. Assurez-vous qu’une personne des RH examine et peut annuler les décisions automatisées.

4. Suivez les résultats. Analysez régulièrement les données de recrutement. Observez-vous des écarts inexpliqués par âge, race ou sexe ? Ceux-ci pourraient être des signes d’impact disparate, un drapeau rouge juridique.

5. Formez une équipe de gouvernance de l’IA. Créez une équipe interfonctionnelle (RH, juridique, IT) pour établir des politiques, évaluer les systèmes et surveiller l’utilisation continue de l’IA dans l’emploi.

Pourquoi cela importe-t-il ?

Les réglementations de Californie et la poursuite contre Workday ne sont que le début, même si vous n’êtes pas en Californie. Avec le gouvernement fédéral réduisant l’application des lois, les États et les poursuites privées prennent le relais. Cela signifie une exposition juridique accrue pour les entreprises utilisant l’IA, surtout si elles ne surveillent pas de près.

Les RH ne sont plus seulement des utilisateurs de ces outils. Elles sont désormais la première ligne de défense contre les biais générés par l’IA. L’IA peut vous aider à recruter mieux et plus rapidement, mais uniquement si elle est utilisée de manière responsable et équitable. Prenez ces changements au sérieux, prenez de l’avance et assurez-vous que votre processus de recrutement soit à la fois efficace et équitable.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...