Recrutement assisté par IA en 2026 : gestion des risques de discrimination
Pour les grands employeurs, ainsi que pour les entreprises technologiques fournissant des plateformes de recrutement, le profil de risque autour du recrutement assisté par IA est passé d’une préoccupation future à quelque chose qui nécessite une attention immédiate. L’idée principale est simple : l’utilisation d’un algorithme ne réduit pas les obligations anti-discrimination ; elle augmente souvent le besoin de validation, de surveillance, de documentation et de supervision des fournisseurs.
Les États et même les municipalités ont évolué d’énoncés généraux à des exigences ciblées (comme les audits, les avis, la tenue de dossiers et les obligations des systèmes « à haut risque »), créant un patchwork dont doivent être conscients les grands employeurs multi-états. De plus, les lois anti-discrimination existantes au niveau fédéral et étatique restent en vigueur et s’appliquent aux décisions d’emploi assistées par IA.
1. La base fédérale : l’IA ne change pas les règles
Bien qu’il n’existe pas de loi fédérale complète sur le recrutement assisté par IA, le cadre fédéral actuel crée déjà une exposition significative :
- Titre VII et impact disparate. La Commission pour l’égalité des chances en matière d’emploi (EEOC) a souligné que les employeurs utilisant des logiciels, des algorithmes ou de l’IA comme « procédures de sélection » peuvent faire face à une responsabilité en cas d’impact disparate si les résultats excluent de manière disproportionnée des groupes protégés, et que l’employeur ne peut pas démontrer la nécessité commerciale liée à l’emploi.
- Loi sur les Américains avec Disabilities (ADA) et accommodations. Les outils algorithmiques peuvent créer un risque de discrimination en vertu de la loi fédérale de trois manières récurrentes : (1) « exclure » des individus en raison de caractéristiques liées à un handicap ; (2) utiliser des outils qui effectuent effectivement des enquêtes ou des examens médicaux liés à un handicap avant l’offre ; et (3) ne pas fournir d’accommodations raisonnables dans un processus piloté par IA.
Dans le contexte de l’IA, votre posture défensive dépendra moins de l’intention de discrimination que de votre capacité à démontrer que votre système de recrutement (y compris les systèmes des fournisseurs) est mesurable, surveillé et défendable en tant que lié à l’emploi.
2. La litige Workday : pourquoi les fournisseurs et les “opérateurs de plateforme” sont maintenant concernés
Le cas Mobley contre Workday est largement considéré comme un indicateur clé car il teste si un fournisseur de technologie RH peut être traité comme un « agent » accomplissant des fonctions de recrutement pour les employeurs et donc faire face à une responsabilité en vertu des lois fédérales anti-discrimination. Le tribunal a permis à des réclamations de progresser sur la théorie que Workday pourrait être considérée comme un « agent » exécutant des fonctions de recrutement déléguées.
Deux aspects sont importants pour les conseils juridiques dans les grandes entreprises :
- Délégation créant une responsabilité potentielle. Plus une entreprise s’appuie opérationnellement sur un système pour rejeter, classer ou acheminer les candidats avec peu d’intervention humaine, plus il devient facile pour les plaignants d’arguer que l’outil accomplit effectivement une fonction de recrutement — et que l’employeur ainsi que le fournisseur ou la plateforme devraient être tenus responsables.
- Posture collective/classe augmentant la pression à un règlement. Le tribunal a accordé la certification conditionnelle d’une action collective en vertu de la Loi sur la discrimination en matière d’âge dans l’emploi (ADEA), ce qui constitue une escalade significative car cela augmente l’avis, la portée de la découverte et l’exposition potentielle, même avant que le fond ne soit décidé.
3. Lois sur le recrutement spécifiques à l’IA au niveau des États et des municipalités
- New York : Loi locale 144. New York a la première loi liée au recrutement assisté par IA dans le pays. En résumé, les employeurs et les agences d’emploi ne peuvent pas utiliser un « outil de décision d’emploi automatisé » (AEDT) à moins que (i) l’outil n’ait subi un audit de biais au cours de l’année précédente, (ii) les informations sur l’audit soient rendues publiques, et (iii) les candidats (ou employés pour des promotions) reçoivent des avis prescrits.
Pour les grands employeurs, le défi opérationnel est moins « pouvons-nous effectuer un audit » que « pouvons-nous réaliser un audit qui s’aligne sur le fonctionnement réel de l’outil et sur son utilisation », y compris la clarification de l’étape pertinente (sélection, classement, recommandation), des catégories de données disponibles (et manquantes) et ce qui est publié.
- Californie : Réglementations sur les « systèmes de décision automatisés » de la FEHA. Le Conseil des droits civils de Californie a obtenu l’approbation finale pour des réglementations qui abordent les risques de discrimination provenant des systèmes automatisés d’IA/algorithmes, avec une date d’entrée en vigueur du 1er octobre 2025.
- Illinois : deux régimes distincts. L’Illinois est notable car il a au moins deux pistes différentes, facilement confondues. Pour les grands employeurs, le point important est la gouvernance : assurez-vous que la pile technologique RH est inventoriée afin de savoir quels outils sont utilisés pour « l’analyse des entretiens vidéo », « le classement des CV », « la notation des évaluations », et « l’automatisation des workflows ».
- Colorado : obligations concernant les systèmes d’IA à haut risque. La loi du Colorado SB 24-205, devant entrer en vigueur cette année, établit des obligations pour les développeurs et les déployeurs de systèmes d’IA « à haut risque » utilisés pour prendre ou influencer substantiellement des décisions « conséquentielles », y compris des décisions liées à l’emploi.
4. Plutôt que de créer de nouveaux régimes, certains États clarifient que les lois existantes s’appliquent
- New Jersey. La Division des droits civils du New Jersey a émis des directives formelles clarifiant que la loi NJ contre la discrimination peut atteindre la discrimination algorithmique, y compris là où les outils créent un impact disparate ou entravent les accommodations.
- Oregon. Le procureur général de l’Oregon a également émis des directives soulignant que les entreprises utilisant l’IA doivent toujours se conformer aux lois existantes de l’Oregon (protection des consommateurs, vie privée et autres exigences), considérant l’IA comme un multiplicateur de risques plutôt que comme un silo légal séparé.
5. Programmes de conformité pratiques pour les grands employeurs en 2026
Pour les avocats internes, l’objectif n’est pas de prouver que l’IA est équitable en théorie, mais de créer un système défendable qui réduit la probabilité de résultats discriminatoires et améliore votre posture en matière de litiges/réglementation en cas de contestation.
Commencez par un inventaire. Documentez chaque outil qui filtre, classe, recommande, programme, note ou route les candidats — y compris les « simples » moteurs de règles et les plugins tiers. Ensuite, classez les outils selon leur influence sur les résultats (informationnels vs déterminants).
Construisez un cycle de test et de surveillance répétable. Traitez l’analyse d’impact défavorable comme un contrôle récurrent, et non comme un projet unique. L’EEOC a explicitement lié les outils de recrutement assistés par IA aux concepts d’impact disparate. En pratique, les employeurs devraient (i) tester à chaque stade de sélection, (ii) documenter les seuils et les déclencheurs d’escalade et (iii) conserver les versions antérieures des modèles et des configurations pour expliquer les changements au fil du temps.
Intégrez les accommodations dans le flux de travail, pas comme une réflexion après coup. Le risque ADA est souvent opérationnel : un candidat ne peut pas compléter une évaluation chronométrée, un outil d’entretien vidéo exclut des modèles de discours ou un système automatisé rejette des parcours professionnels non standards qui se corrèlent avec un handicap. Intégrez et documentez un chemin d’accommodation raisonnable et une méthode d’évaluation alternative.
Répartissez le risque de manière appropriée dans les contrats fournisseurs. En plus des clauses de sécurité/privacité, les termes des fournisseurs devraient aborder : la transparence sur les fonctionnalités utilisées ; la coopération lors des audits ; la conservation des dossiers ; l’allocation de la responsabilité pour les divulgations spécifiques à la juridiction (par exemple, NYC) ; et l’accès aux preuves de validation.
Alignez un dossier prêt pour le litige. Les plaignants chercheront : (a) les entrées/caractéristiques du modèle, (b) la documentation de formation/validation, (c) les analyses d’impact défavorable, (d) les pratiques de contournement humain et (e) les communications des fournisseurs.
Conclusion
En 2026, la question est de savoir si vous pouvez démontrer une gouvernance sur les procédures de sélection automatisées qui est proportionnelle à leur influence sur les résultats de recrutement. La posture la plus défendable pour un grand employeur est de traiter le recrutement assisté par IA comme un système de sélection réglementé, afin que, lorsque le défi inévitable survienne (d’un candidat, d’un régulateur ou d’un avocat de classe), vous puissiez documenter adéquatement les processus.