Les nouvelles règles d’embauche en matière d’IA en Californie sont désormais en vigueur – et les nouveaux procès augmentent le risque pour les employeurs
Les systèmes d’intelligence artificielle et de décision automatisée (SDA) sont devenus des éléments courants dans le recrutement et l’embauche modernes. Les régulateurs et les tribunaux californiens se concentrent de plus en plus sur l’utilisation des outils d’IA par les employeurs dans les décisions d’emploi et les risques juridiques qui en découlent.
Les règlements SDA de Californie sont désormais en vigueur
Les règlements de la Californie concernant les SDA, en vertu de la loi sur l’égalité des droits et le logement (FEHA), sont désormais en vigueur depuis le 1er octobre 2025. Ces règlements clarifient que l’utilisation de SDA, y compris les outils basés sur l’IA utilisés dans le recrutement, l’embauche, la promotion et d’autres décisions d’emploi, est soumise aux lois anti-discrimination de Californie.
Ces règlements ne prohibent pas l’utilisation de l’IA ou des SDA, mais renforcent plusieurs principes fondamentaux que les employeurs devraient déjà intégrer dans leurs programmes de conformité :
- Les employeurs restent responsables des résultats discriminatoires résultant des décisions assistées par l’IA, même lorsque les outils sont développés ou administrés par des tiers.
- Les décisions basées sur les SDA doivent être liées au poste et conformes à la nécessité commerciale si elles entraînent un impact disparate sur des groupes protégés.
- La documentation, les tests et la conservation des dossiers sont cruciaux, surtout si les employeurs doivent expliquer comment les outils automatisés ont influencé les décisions d’emploi.
- Les fournisseurs peuvent être considérés comme des agents en vertu de la FEHA, ce qui augmente l’importance de la diligence raisonnable et de la gouvernance contractuelle.
Une nouvelle théorie de responsabilité pour les outils d’embauche en IA : le procès contre Eightfold AI
Un récent recours collectif contre Eightfold AI met en évidence un autre domaine d’exposition pour les employeurs utilisant des outils d’embauche en IA. En janvier 2026, des candidats ont déposé une proposition de recours collectif en affirmant que les scores et classements générés par l’IA d’Eightfold fonctionnent comme des « rapports de consommation » en vertu de la loi fédérale sur le reporting de crédit équitable et de la loi californienne sur les agences de reporting de consommation.
Contrairement aux litiges précédents qui se concentraient sur les résultats discriminatoires, le procès contre Eightfold se concentre sur le processus et la transparence. Les plaignants allèguent que la plateforme d’Eightfold assemble et évalue des informations sur les candidats, fournissant aux employeurs des scores ou classements numériques qui influencent les décisions d’embauche. Ils soutiennent que les candidats n’ont pas reçu de divulgations, n’ont pas autorisé la création de tels rapports et n’ont pas eu la possibilité de contester les informations avant que des décisions d’embauche défavorables ne soient prises.
Si les tribunaux acceptent cette théorie, les implications pourraient s’étendre bien au-delà d’Eightfold. Tout outil d’IA tiers qui assemble des données sur les candidats et produit des résultats évaluatifs utilisés dans les décisions d’emploi pourrait potentiellement impliquer des obligations de reporting-consommation.
Ce que cela signifie pour les employeurs en 2026
Les règlements SDA de Californie, le litige contre Eightfold et d’autres procès illustrent que le risque d’emploi lié à l’IA s’étend désormais à plusieurs cadres juridiques, y compris :
- Les lois anti-discrimination (FEHA et lois fédérales sur les droits civils)
- Les lois sur le reporting-consommation axées sur les droits de notification, d’autorisation et de contestation
- Des attentes plus larges en matière de transparence et de documentation liées à la prise de décision automatisée
Pour les employeurs, cela signifie que la gouvernance de l’IA doit être à la fois axée sur les résultats et sur le processus. En termes pratiques, les employeurs devraient envisager :
- D’inventorier les outils d’IA et de SDA utilisés à chaque étape du processus d’embauche.
- De comprendre quelles données ces outils collectent, évaluent ou infèrent.
- D’évaluer si les résultats de l’IA pourraient être considérés comme des rapports ou des scores influençant de manière significative les décisions d’emploi.
- De revoir les contrats avec les fournisseurs, les divulgations et les flux de travail internes pour garantir l’alignement sur les obligations de conformité anti-discrimination et procédurale.
Conclusion
Les outils d’embauche activés par l’IA demeurent permis et précieux, mais le paysage juridique régissant leur utilisation continue d’évoluer. Les règlements SDA de Californie confirment que l’IA est clairement dans le champ d’application des lois sur la discrimination en emploi, tandis que des litiges émergents comme celui d’Eightfold signalent que la conformité procédurale et la transparence pourraient être la prochaine grande frontière du risque d’emploi lié à l’IA.
Les employeurs qui considèrent la gouvernance de l’IA comme une question de conformité holistique, plutôt que comme une simple préoccupation technologique, seront les mieux positionnés pour gérer ces risques imbriqués en 2026 et au-delà.