Nouvelles règles d’embauche basées sur l’IA : les défis pour les employeurs

A checklist

Nouvelles règles de recrutement basées sur l’IA et poursuites judiciaires : Ce que les RH doivent savoir

La transformation apportée par l’intelligence artificielle (IA) dans le domaine du recrutement soulève des inquiétudes parmi les régulateurs et les tribunaux. Deux événements marquants survenus en mai 2025 obligent les équipes RH à examiner de plus près leurs outils de recrutement afin d’éviter les risques juridiques et de conformité.

Que se passe-t-il en Californie ?

La Californie s’apprête à mettre en œuvre de nouvelles réglementations sur les droits civiques qui devraient affecter l’utilisation des systèmes de décision automatisés (ADS) dans l’emploi et d’autres programmes soutenus par l’État. Ces règles, qui devraient entrer en vigueur dès le 1er juillet 2025, visent à prévenir la discrimination fondée sur des caractéristiques protégées telles que la race, le sexe, l’âge, le handicap ou la religion.

Bien que ces réglementations ne bannissent pas les outils d’IA, elles rendent illégal l’utilisation de tout système, qu’il soit automatisé ou non, qui entraîne des résultats discriminatoires.

Qu’est-ce qui compte comme discriminatoire ?

Les nouvelles règles ciblent les outils d’IA qui analysent les voix, les expressions faciales, la personnalité ou la disponibilité des candidats, surtout si ces outils entraînent des résultats biaisés.

Exemple : Un outil d’IA qui interprète le fait de ne pas sourire lors d’un entretien vidéo comme un signe d’inimitié pourrait pénaliser injustement des candidats provenant de cultures où sourire moins est courant.

Si un outil d’IA produit des résultats différents pour des personnes appartenant à des groupes protégés, cela pourrait violer la loi, même en l’absence d’intention de discriminer.

Qu’en est-il de la poursuite contre Workday ?

Parallèlement, une importante action collective contre Workday, un fournisseur de technologie RH très populaire, avance dans les tribunaux fédéraux. La plainte ? Que son logiciel de recrutement alimenté par l’IA discrimine les candidats de plus de 40 ans.

Le recours est dirigé par Derek Mobley, un homme noir de plus de 40 ans souffrant d’anxiété et de dépression. Il affirme avoir postulé à plus de 100 emplois en utilisant les systèmes de Workday et avoir été rejeté à chaque fois.

Le 16 mai 2025, un juge a statué que sa plainte pour discrimination fondée sur l’âge pouvait se poursuivre en tant qu’action collective à l’échelle nationale sous la Loi sur la discrimination en matière d’emploi en raison de l’âge (ADEA), ce qui pourrait impliquer des centaines de milliers, voire des millions de chercheurs d’emploi.

Cette affaire est un signal d’alerte pour les employeurs : même si vous n’avez pas conçu l’outil d’IA vous-même, vous pouvez toujours être tenu responsable de l’impact discriminatoire des algorithmes tiers utilisés dans votre processus de recrutement.

Que doivent faire les équipes RH maintenant ?

Quelles que soient vos circonstances, ces développements montrent que la conformité à l’IA est désormais une priorité pour les RH. Voici votre plan d’action :

1. Examinez vos outils. Auditez vos systèmes de recrutement, en particulier ceux impliquant l’IA. Analysent-ils les CV, filtrent-ils les entretiens vidéo ou attribuent-ils des « scores de compatibilité » ? Si oui, demandez une preuve de leur test de biais.

2. Exigez de la transparence de la part du fournisseur. Si vous utilisez des plateformes tierces comme Workday, demandez :

  • Documentation des tests de biais,
  • Explications claires sur la façon dont les décisions sont prises, et
  • Contrats qui vous protègent des risques juridiques.

3. Gardez un humain dans le processus. Ne laissez pas l’IA prendre la décision finale. Assurez-vous qu’une personne des RH examine et peut annuler les décisions automatisées.

4. Suivez les résultats. Analysez régulièrement les données de recrutement. Observez-vous des écarts inexpliqués par âge, race ou sexe ? Ceux-ci pourraient être des signes d’impact disparate, un drapeau rouge juridique.

5. Formez une équipe de gouvernance de l’IA. Créez une équipe interfonctionnelle (RH, juridique, IT) pour établir des politiques, évaluer les systèmes et surveiller l’utilisation continue de l’IA dans l’emploi.

Pourquoi cela importe-t-il ?

Les réglementations de Californie et la poursuite contre Workday ne sont que le début, même si vous n’êtes pas en Californie. Avec le gouvernement fédéral réduisant l’application des lois, les États et les poursuites privées prennent le relais. Cela signifie une exposition juridique accrue pour les entreprises utilisant l’IA, surtout si elles ne surveillent pas de près.

Les RH ne sont plus seulement des utilisateurs de ces outils. Elles sont désormais la première ligne de défense contre les biais générés par l’IA. L’IA peut vous aider à recruter mieux et plus rapidement, mais uniquement si elle est utilisée de manière responsable et équitable. Prenez ces changements au sérieux, prenez de l’avance et assurez-vous que votre processus de recrutement soit à la fois efficace et équitable.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...