Nouvelles règles d’embauche basées sur l’IA : les défis pour les employeurs

A checklist

Nouvelles règles de recrutement basées sur l’IA et poursuites judiciaires : Ce que les RH doivent savoir

La transformation apportée par l’intelligence artificielle (IA) dans le domaine du recrutement soulève des inquiétudes parmi les régulateurs et les tribunaux. Deux événements marquants survenus en mai 2025 obligent les équipes RH à examiner de plus près leurs outils de recrutement afin d’éviter les risques juridiques et de conformité.

Que se passe-t-il en Californie ?

La Californie s’apprête à mettre en œuvre de nouvelles réglementations sur les droits civiques qui devraient affecter l’utilisation des systèmes de décision automatisés (ADS) dans l’emploi et d’autres programmes soutenus par l’État. Ces règles, qui devraient entrer en vigueur dès le 1er juillet 2025, visent à prévenir la discrimination fondée sur des caractéristiques protégées telles que la race, le sexe, l’âge, le handicap ou la religion.

Bien que ces réglementations ne bannissent pas les outils d’IA, elles rendent illégal l’utilisation de tout système, qu’il soit automatisé ou non, qui entraîne des résultats discriminatoires.

Qu’est-ce qui compte comme discriminatoire ?

Les nouvelles règles ciblent les outils d’IA qui analysent les voix, les expressions faciales, la personnalité ou la disponibilité des candidats, surtout si ces outils entraînent des résultats biaisés.

Exemple : Un outil d’IA qui interprète le fait de ne pas sourire lors d’un entretien vidéo comme un signe d’inimitié pourrait pénaliser injustement des candidats provenant de cultures où sourire moins est courant.

Si un outil d’IA produit des résultats différents pour des personnes appartenant à des groupes protégés, cela pourrait violer la loi, même en l’absence d’intention de discriminer.

Qu’en est-il de la poursuite contre Workday ?

Parallèlement, une importante action collective contre Workday, un fournisseur de technologie RH très populaire, avance dans les tribunaux fédéraux. La plainte ? Que son logiciel de recrutement alimenté par l’IA discrimine les candidats de plus de 40 ans.

Le recours est dirigé par Derek Mobley, un homme noir de plus de 40 ans souffrant d’anxiété et de dépression. Il affirme avoir postulé à plus de 100 emplois en utilisant les systèmes de Workday et avoir été rejeté à chaque fois.

Le 16 mai 2025, un juge a statué que sa plainte pour discrimination fondée sur l’âge pouvait se poursuivre en tant qu’action collective à l’échelle nationale sous la Loi sur la discrimination en matière d’emploi en raison de l’âge (ADEA), ce qui pourrait impliquer des centaines de milliers, voire des millions de chercheurs d’emploi.

Cette affaire est un signal d’alerte pour les employeurs : même si vous n’avez pas conçu l’outil d’IA vous-même, vous pouvez toujours être tenu responsable de l’impact discriminatoire des algorithmes tiers utilisés dans votre processus de recrutement.

Que doivent faire les équipes RH maintenant ?

Quelles que soient vos circonstances, ces développements montrent que la conformité à l’IA est désormais une priorité pour les RH. Voici votre plan d’action :

1. Examinez vos outils. Auditez vos systèmes de recrutement, en particulier ceux impliquant l’IA. Analysent-ils les CV, filtrent-ils les entretiens vidéo ou attribuent-ils des « scores de compatibilité » ? Si oui, demandez une preuve de leur test de biais.

2. Exigez de la transparence de la part du fournisseur. Si vous utilisez des plateformes tierces comme Workday, demandez :

  • Documentation des tests de biais,
  • Explications claires sur la façon dont les décisions sont prises, et
  • Contrats qui vous protègent des risques juridiques.

3. Gardez un humain dans le processus. Ne laissez pas l’IA prendre la décision finale. Assurez-vous qu’une personne des RH examine et peut annuler les décisions automatisées.

4. Suivez les résultats. Analysez régulièrement les données de recrutement. Observez-vous des écarts inexpliqués par âge, race ou sexe ? Ceux-ci pourraient être des signes d’impact disparate, un drapeau rouge juridique.

5. Formez une équipe de gouvernance de l’IA. Créez une équipe interfonctionnelle (RH, juridique, IT) pour établir des politiques, évaluer les systèmes et surveiller l’utilisation continue de l’IA dans l’emploi.

Pourquoi cela importe-t-il ?

Les réglementations de Californie et la poursuite contre Workday ne sont que le début, même si vous n’êtes pas en Californie. Avec le gouvernement fédéral réduisant l’application des lois, les États et les poursuites privées prennent le relais. Cela signifie une exposition juridique accrue pour les entreprises utilisant l’IA, surtout si elles ne surveillent pas de près.

Les RH ne sont plus seulement des utilisateurs de ces outils. Elles sont désormais la première ligne de défense contre les biais générés par l’IA. L’IA peut vous aider à recruter mieux et plus rapidement, mais uniquement si elle est utilisée de manière responsable et équitable. Prenez ces changements au sérieux, prenez de l’avance et assurez-vous que votre processus de recrutement soit à la fois efficace et équitable.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...

L’Alignement de l’IA : Vers une Gouvernance Éthique

Gillian K. Hadfield a été nommée professeure distinguée Bloomberg en alignement et gouvernance de l'IA à l'Université Johns Hopkins. Elle se concentre sur la manière dont les systèmes d'IA peuvent...

Les dangers cachés du porno par échange de visages

La technologie de remplacement de visage, alimentée par l'IA, permet aux utilisateurs de remplacer le visage d'une personne dans une vidéo de manière très réaliste. Cependant, son utilisation abusive...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...