Echec d’une loi californienne sur la régulation de l’IA à haut risque

A magnifying glass to signify scrutiny and oversight over AI technologies.

Échec d’un projet de loi en Californie sur la régulation de l’IA à haut risque

Un projet de loi californien visant à réglementer l’utilisation des systèmes de décision automatisés dans le recrutement et d’autres domaines cruciaux n’a pas réussi à progresser au sein de l’assemblée de l’État lors des dernières heures de la session législative de 2025, vendredi dernier.

Détails du projet de loi AB 1018

Le projet de loi (AB 1018) aurait exigé des entreprises et des agences gouvernementales qu’elles informent les individus lorsque des systèmes de décision automatisés étaient utilisés pour des « décisions conséquentes », telles que l’emploi, le logement, les soins de santé et les services financiers.

La députée démocrate Rebecca Bauer-Kahan, auteur du projet de loi, a suspendu le vote jusqu’à l’année prochaine afin de permettre « un engagement supplémentaire des parties prenantes et des conversations productives avec le bureau du Gouverneur », selon un communiqué de presse publié vendredi par son bureau.

« Cette pause reflète notre engagement à obtenir cette législation critique, et non un retrait de notre responsabilité de protéger les Californiens », a déclaré Bauer-Kahan dans un communiqué. « Nous restons déterminés à faire avancer des protections réfléchies contre la discrimination algorithmique. »

Réaction des entreprises technologiques

L’Association des logiciels commerciaux, une association commerciale mondiale représentant de grandes entreprises technologiques, a mené une campagne d’opposition contre le projet de loi, arguant que la législation aurait injustement soumis les entreprises utilisant des systèmes d’IA à un « régime d’audit non testé » qui risquait de décourager l’adoption responsable des outils d’IA dans tout l’État.

« Établir des attentes claires, réalisables et cohérentes pour les utilisations à haut risque de l’IA favorise en fin de compte l’adoption de la technologie et en diffuse plus largement les bénéfices », a déclaré Craig Albright, vice-président senior de la BSA, dans une déclaration écrite.

Modifications du projet de loi

Depuis son introduction en février, le projet de loi a été modifié pour restreindre les cas où des audits d’IA sont requis, clarifier les types de systèmes et de décisions « à enjeux élevés » couverts, exemptant des outils à faible risque comme les filtres anti-spam, et ajouter des protections pour les secrets commerciaux tout en limitant les détails des audits qui doivent être rendus publics.

Il a également affiné le fonctionnement des poursuites et des appels et a aligné le projet de loi plus clairement avec les lois sur les droits civils existantes.

Contexte législatif similaire

L’échec d’AB 1018 survient après que la législature de l’État du Colorado a voté pour retarder la mise en œuvre de la Loi sur l’IA du Colorado, qui réglemente également les systèmes d’IA à haut risque dans des domaines tels que le recrutement, le prêt, le logement, l’assurance et les services gouvernementaux, jusqu’à la fin juin de l’année prochaine, cinq mois après la date d’entrée en vigueur initiale de la loi.

Tout comme le projet de loi californien, la Loi sur l’intelligence artificielle du Colorado vise à encadrer l’utilisation de l’IA dans des secteurs critiques.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...