Règlementation de l’IA en Californie : Risques et responsabilités pour les employeurs

A shattered silicon wafer with a circuit board growing from its center

Les nouvelles règles d’embauche en matière d’IA en Californie sont désormais en vigueur – et les nouveaux procès augmentent le risque pour les employeurs

Les systèmes d’intelligence artificielle et de décision automatisée (SDA) sont devenus des éléments courants dans le recrutement et l’embauche modernes. Les régulateurs et les tribunaux californiens se concentrent de plus en plus sur l’utilisation des outils d’IA par les employeurs dans les décisions d’emploi et les risques juridiques qui en découlent.

Les règlements SDA de Californie sont désormais en vigueur

Les règlements de la Californie concernant les SDA, en vertu de la loi sur l’égalité des droits et le logement (FEHA), sont désormais en vigueur depuis le 1er octobre 2025. Ces règlements clarifient que l’utilisation de SDA, y compris les outils basés sur l’IA utilisés dans le recrutement, l’embauche, la promotion et d’autres décisions d’emploi, est soumise aux lois anti-discrimination de Californie.

Ces règlements ne prohibent pas l’utilisation de l’IA ou des SDA, mais renforcent plusieurs principes fondamentaux que les employeurs devraient déjà intégrer dans leurs programmes de conformité :

  • Les employeurs restent responsables des résultats discriminatoires résultant des décisions assistées par l’IA, même lorsque les outils sont développés ou administrés par des tiers.
  • Les décisions basées sur les SDA doivent être liées au poste et conformes à la nécessité commerciale si elles entraînent un impact disparate sur des groupes protégés.
  • La documentation, les tests et la conservation des dossiers sont cruciaux, surtout si les employeurs doivent expliquer comment les outils automatisés ont influencé les décisions d’emploi.
  • Les fournisseurs peuvent être considérés comme des agents en vertu de la FEHA, ce qui augmente l’importance de la diligence raisonnable et de la gouvernance contractuelle.

Une nouvelle théorie de responsabilité pour les outils d’embauche en IA : le procès contre Eightfold AI

Un récent recours collectif contre Eightfold AI met en évidence un autre domaine d’exposition pour les employeurs utilisant des outils d’embauche en IA. En janvier 2026, des candidats ont déposé une proposition de recours collectif en affirmant que les scores et classements générés par l’IA d’Eightfold fonctionnent comme des « rapports de consommation » en vertu de la loi fédérale sur le reporting de crédit équitable et de la loi californienne sur les agences de reporting de consommation.

Contrairement aux litiges précédents qui se concentraient sur les résultats discriminatoires, le procès contre Eightfold se concentre sur le processus et la transparence. Les plaignants allèguent que la plateforme d’Eightfold assemble et évalue des informations sur les candidats, fournissant aux employeurs des scores ou classements numériques qui influencent les décisions d’embauche. Ils soutiennent que les candidats n’ont pas reçu de divulgations, n’ont pas autorisé la création de tels rapports et n’ont pas eu la possibilité de contester les informations avant que des décisions d’embauche défavorables ne soient prises.

Si les tribunaux acceptent cette théorie, les implications pourraient s’étendre bien au-delà d’Eightfold. Tout outil d’IA tiers qui assemble des données sur les candidats et produit des résultats évaluatifs utilisés dans les décisions d’emploi pourrait potentiellement impliquer des obligations de reporting-consommation.

Ce que cela signifie pour les employeurs en 2026

Les règlements SDA de Californie, le litige contre Eightfold et d’autres procès illustrent que le risque d’emploi lié à l’IA s’étend désormais à plusieurs cadres juridiques, y compris :

  • Les lois anti-discrimination (FEHA et lois fédérales sur les droits civils)
  • Les lois sur le reporting-consommation axées sur les droits de notification, d’autorisation et de contestation
  • Des attentes plus larges en matière de transparence et de documentation liées à la prise de décision automatisée

Pour les employeurs, cela signifie que la gouvernance de l’IA doit être à la fois axée sur les résultats et sur le processus. En termes pratiques, les employeurs devraient envisager :

  • D’inventorier les outils d’IA et de SDA utilisés à chaque étape du processus d’embauche.
  • De comprendre quelles données ces outils collectent, évaluent ou infèrent.
  • D’évaluer si les résultats de l’IA pourraient être considérés comme des rapports ou des scores influençant de manière significative les décisions d’emploi.
  • De revoir les contrats avec les fournisseurs, les divulgations et les flux de travail internes pour garantir l’alignement sur les obligations de conformité anti-discrimination et procédurale.

Conclusion

Les outils d’embauche activés par l’IA demeurent permis et précieux, mais le paysage juridique régissant leur utilisation continue d’évoluer. Les règlements SDA de Californie confirment que l’IA est clairement dans le champ d’application des lois sur la discrimination en emploi, tandis que des litiges émergents comme celui d’Eightfold signalent que la conformité procédurale et la transparence pourraient être la prochaine grande frontière du risque d’emploi lié à l’IA.

Les employeurs qui considèrent la gouvernance de l’IA comme une question de conformité holistique, plutôt que comme une simple préoccupation technologique, seront les mieux positionnés pour gérer ces risques imbriqués en 2026 et au-delà.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...