L’Acte Anti-Robots de California : Vers une régulation de l’IA dans l’emploi

A magnifying glass over a document

Proposition de loi « No Robo Bosses Act » en Californie pour limiter l’utilisation des systèmes d’IA dans les décisions d’emploi

Une nouvelle loi en Californie, connue sous le nom de SB 7, proposée par le sénateur d’État Jerry McNerney, vise à limiter et réguler l’utilisation de la prise de décision par intelligence artificielle (IA) dans les décisions d’embauche, de promotion, de discipline ou de licenciement.

Le projet de loi définit de manière large le terme système de décision automatisé (ADS) comme tout processus computationnel dérivé de l’apprentissage automatique, de la modélisation statistique, de l’analyse de données ou de l’intelligence artificielle, qui produit une sortie simplifiée, y compris un score, une classification ou une recommandation, utilisée pour assister ou remplacer la prise de décision discrétionnaire humaine ayant un impact matériel sur des personnes physiques. Cependant, certains outils comme les filtres anti-spam ou les logiciels antivirus ne sont pas inclus dans cette définition.

Principales dispositions de la SB 7

La SB 7 comporte plusieurs dispositions clés :

  1. Elle exige que les employeurs fournissent un avis autonome en langage clair aux employés, aux contractuels et aux candidats sur l’utilisation des ADS dans les décisions liées à l’emploi, au moins 30 jours avant l’introduction de l’ADS (ou d’ici le 1er février 2026, si l’ADS est déjà en usage).
  2. Les employeurs doivent maintenir une liste de tous les ADS utilisés et inclure cette liste dans l’avis adressé aux employés, contractuels et candidats.
  3. Il est interdit aux employeurs de s’appuyer principalement sur les ADS pour les décisions d’embauche, de promotion, de discipline ou de licenciement.
  4. Les employeurs ne peuvent pas utiliser des ADS qui entravent la conformité aux lois ou règlements, qui obtiennent ou infèrent un statut protégé, qui effectuent des analyses prédictives de comportement, ou qui prédisent ou agissent contre un travailleur pour l’exercice de ses droits légaux.
  5. Les travailleurs auront le droit d’accéder aux données collectées et de corriger les erreurs.
  6. Les travailleurs pourront faire appel d’une décision d’emploi pour laquelle un ADS a été utilisé, et l’employeur devra avoir un examinateur humain.
  7. Des dispositions de sanction seront mises en place contre les licenciements, discriminations ou représailles envers les travailleurs exerçant leurs droits en vertu de la SB 7.

Similaire à la SB 7, le California Civil Rights Council a proposé des règlements visant à protéger les employés contre la discrimination, le harcèlement et les représailles liés à l’utilisation des ADS par les employeurs. Cette initiative identifie plusieurs exemples, tels que les évaluations prédictives mesurant les compétences ou les outils de filtrage des CV, qui pourraient discriminer les employés, contractuels ou candidats en fonction d’une classe protégée. Les règles proposées et la SB 7 fonctionneraient de concert si les deux étaient adoptées par leurs instances gouvernementales respectives.

État d’avancement de la loi

Le projet de loi est encore à ses débuts. Il est prévu qu’il soit examiné lors de sa première audition en comité — le Comité du travail, de l’emploi public et de la retraite du Sénat — le 9 avril 2025. Les transformations potentielles de la loi avant son adoption éventuelle restent encore inconnues, mais en raison de sa portée potentielle et de la possibilité que d’autres États l’imitent, la SB 7 est à surveiller de près.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...