AI au Travail — Emplois, Régulation et L’Argument pour des Normes Fédérales
À travers le pays, les législatures des États agissent rapidement pour réguler l’intelligence artificielle (IA) sur le lieu de travail. La proposition de loi SB 947 en Californie, introduite le 2 février 2026, est un exemple marquant, mais elle s’inscrit dans une tendance plus large : des lois visant à gouverner comment les employeurs peuvent adopter, déployer et s’appuyer sur des outils pilotés par l’IA lors de décisions liées à l’emploi.
Une Accélération de la Réglementation
D’autres propositions de législation liées à l’IA soulignent la rapidité de ce mouvement. Par exemple, la SB 951 — la Loi sur le Déplacement Technologique des Travailleurs en Californie — exigerait que les employeurs fournissent un préavis d’au moins 90 jours avant les licenciements causés par un « déplacement technologique ». De plus, la Fédération du Travail de Californie a déclaré publiquement qu’elle soutiendrait plus de deux douzaines de projets de loi cette année axés sur l’impact de l’IA sur les travailleurs.
Tensions Politiques sous-jacentes
Bien que ces projets de loi soient généralement présentés comme des mesures de protection des travailleurs, ils reflètent une tension politique plus profonde : la question de savoir si l’IA au travail doit être régulée au niveau des États ou si une régulation fédérale est nécessaire pour éviter une mosaïque de règles qui freine l’innovation et la croissance économique.
Analyse des Propositions de Réglementation
En utilisant la SB 947 comme étude de cas, il devient évident que beaucoup de ces propositions partent des mêmes postulats et soulèvent des problèmes structurels similaires. Ces projets de loi cherchent à réguler l’utilisation par les employeurs de « systèmes de décision automatisés » (SDA), un terme défini si largement qu’il peut inclure des outils pilotés par l’IA, des logiciels d’analyse, des systèmes de notation et d’autres technologies utilisées pour aider dans les décisions d’emploi.
Restrictions et Obligations
La SB 947, par exemple, interdirait aux employeurs de se fier uniquement à un système automatisé pour des décisions disciplinaires ou de licenciement et exigerait qu’une « enquête indépendante » soit menée pour corroborer toute sortie générée par l’IA. Des propositions similaires imposent des restrictions sur les types de données pouvant être utilisées, interdisent l’« analyse prédictive du comportement » et excluent l’utilisation de systèmes pouvant inférer des caractéristiques protégées.
Ces projets de loi créent également de nouvelles obligations de notification et de divulgation. Si un outil assisté par l’IA est utilisé en lien avec une discipline ou un licenciement, les employeurs peuvent être tenus de fournir des avis écrits post-utilisation, d’identifier les fournisseurs, d’expliquer les processus de révision humaine, et de produire des données d’entrée, de sortie, des matériaux de corroboration, ainsi que des évaluations d’impact sur demande.
Mécanismes d’Application
Les mécanismes d’application tendent à être expansifs. À titre d’exemple, la conformité serait non seulement appliquée par des agences de travail et des procureurs publics, mais également par des actions civiles privées, avec des frais d’avocat et des dommages-intérêts punitifs disponibles. Cela ne constitue pas simplement une régulation technologique, mais un nouveau régime de conformité axé sur les litiges, superposé à des lois sur l’emploi déjà complexes.
Risques et Implications
Il existe une incertitude fondamentale : nous ne savons toujours pas ce que l’IA fera aux emplois. Pourtant, beaucoup de ces projets de loi partent du principe que les réponses sont déjà établies. Voici cinq raisons pour lesquelles les efforts de régulation au niveau des États sont mal alignés avec la direction actuelle de la conversation sur l’IA.
1. Ignorer le Consensus Fédéral Croissant
Au niveau fédéral, il y a un consensus bipartite croissant sur la nécessité de normes uniformes. Une approche par État de la régulation de l’IA est incompatible avec l’innovation et la croissance économique.
2. Un Ensemble de Lois Fragmentées Ne Protège Pas les Travailleurs
Ces propositions peuvent en fait réduire l’équité plutôt que de l’améliorer. Si les employeurs sont découragés d’utiliser des outils standardisés en raison des risques juridiques, la prise de décision devient plus subjective.
3. Supposer que l’Impact de l’IA sur les Emplois est Connu
Ces efforts de régulation partent souvent du principe que l’IA est principalement un outil d’élimination d’emplois. Cette hypothèse est prématurée.
4. Le Risque de Sur-régulation
Une autre conséquence imprévue de ces propositions est qu’elles incitent à une utilisation de l’IA moins visible et moins documentée. Cela peut être pire pour les travailleurs.
5. Risque de Devenir des Cas à Part
Les États risquent de devenir des anomalies alors que des normes fédérales sur l’IA émergent probablement.
Conclusion
La SB 947 est mieux comprise comme un exemple d’une tendance législative plus large : les efforts des États pour réguler l’IA au travail avant que ses impacts ne soient entièrement compris. Une structure nationale axée sur les résultats est plus susceptible de protéger les travailleurs et d’encourager une innovation responsable.
Ce que les Employeurs devraient Faire Maintenant
Indépendamment de la façon dont la régulation de l’IA se développe, l’IA est déjà dans le lieu de travail. Le véritable risque pour les employeurs est de l’utiliser sans politiques claires, formation et garde-fous juridiques.
Pour aider les employeurs à naviguer dans ce paysage en évolution, un masterclass sera organisé sur l’utilisation pratique de l’IA dans le lieu de travail.