Interdiction des lois étatiques sur l’IA : un débat enflammé

A broken circuit board

La poussée du GOP pour interdire les lois étatiques sur l’IA suscite un débat : Ce qu’il faut savoir

Cette semaine, les républicains de la Chambre ont avancé avec un projet de loi visant à interdire la régulation étatique de l’intelligence artificielle (IA), suscitant un débat au sein de la communauté technologique et parmi les législateurs concernant ses implications pour cette technologie émergente.

La proposition a été adoptée par la Chambre jeudi matin dans le cadre d’un projet de loi de dépenses et de fiscalité. Elle fait maintenant face à une bataille difficile au Sénat, en raison de règles procédurales et de la résistance potentielle de certains sénateurs républicains.

Que faut-il savoir

Le projet de loi, intégré dans le « grand et beau projet de loi » du président Trump, appelle à un moratoire de 10 ans sur les lois étatiques régissant les modèles d’IA, les systèmes ou les systèmes de décision automatisés. Cela comprend l’application des lois existantes et futures au niveau étatique.

Les partisans du moratoire soutiennent qu’un patchwork de lois étatiques peut être déroutant ou contraignant pour les entreprises technologiques qui opèrent dans plusieurs régions du pays.

« Actuellement, il y a plus de mille projets de loi sur le sujet de la régulation de l’IA en attente dans les législatures étatiques à travers le pays », a déclaré le représentant Jay Obernolte (R-Calif.) lors de la discussion de la mesure au sein du comité de l’énergie et du commerce de la Chambre.

Obernolte a ajouté : « Imaginez à quel point il serait difficile pour une agence fédérale qui opère dans les 50 États de naviguer dans ce labyrinthe de régulations, alors que nous avons potentiellement 50 États allant dans 50 directions différentes sur le sujet de la régulation de l’IA. »

Le projet de loi comprend certaines exemptions pour l’application des lois étatiques visant à promouvoir le développement de l’IA, y compris les régulations visant à éliminer les obstacles ou à faciliter l’utilisation des modèles et systèmes d’IA.

Cette initiative s’aligne avec l’agenda pro-innovation plus large de l’administration Trump, qui priorise le développement technologique par rapport aux régulations qui entravent l’innovation et la compétitivité américaines.

Aucun cadre fédéral encore

La plupart des partisans d’un moratoire précisent qu’ils ne sont pas contre la régulation en soi, mais estiment qu’elle devrait être faite au niveau fédéral pour établir une norme unifiée que les entreprises peuvent facilement suivre.

Bien que les législateurs discutent d’un cadre fédéral pour l’IA depuis des années, aucune initiative n’a encore progressé de manière significative.

Le groupe de travail de la Chambre sur l’IA a publié un rapport complet à la fin de l’année dernière qui proposait un cadre réglementaire fédéral. Obernolte, co-leader du groupe, a exprimé ses frustrations lors de la discussion, affirmant que le Congrès n’avait pas avancé sur cette question.

« Le Congrès doit se ressaisir et codifier certaines des choses dans ce rapport », a-t-il déclaré, ajoutant : « Un moratoire est approprié et nous donnera un peu de temps pour faire notre travail et réguler. »

En attendant, de nombreux démocrates s’opposent au moratoire, craignant qu’il ne soit excessif et ne mette en danger les consommateurs en l’absence d’une norme fédérale.

La représentante démocrate Doris Matsui (Calif.) a qualifié le moratoire de « gifle au visage des consommateurs américains ». L’État de Californie, qui est l’un des leaders en matière de législation et de régulation de l’IA, est particulièrement concerné.

« Les États-Unis devraient être à la tête de la course mondiale pour la domination dans le domaine de l’IA », a-t-elle déclaré. « Si nous ne prenons pas les devants, d’autres le feront. Cependant, nous ne pouvons pas nous tirer une balle dans le pied en stoppant les bonnes initiatives que les États ont déjà mises en place. »

Obstacles au Sénat

Bien que les républicains de la Chambre aient réussi à faire adopter cette disposition, elle fait face à de plus grands défis au Sénat. Les législateurs s’inquiètent de la possibilité que la disposition ne respecte pas la règle Byrd, une règle procédurale au Sénat interdisant l’inclusion de « questions extrinsèques » dans les paquets de réconciliation.

Il appartient au parlementaire du Sénat de déterminer si le moratoire enfreint la règle Byrd. De plus, au moins deux sénateurs républicains connus pour leurs critiques des grandes entreprises technologiques ont exprimé des inquiétudes concernant le moratoire cette semaine.

« Nous savons certainement qu’au Tennessee, nous avons besoin de ces protections », a déclaré la sénatrice Marsha Blackburn (R-Tenn.) lors d’une audience la semaine dernière. Elle a discuté de la nécessité d’une régulation fédérale avant de pouvoir appeler à un moratoire.

Le groupe de 40 procureurs généraux d’États a également qualifié cette initiative d’« irresponsable ».

Réactions de l’industrie technologique et des groupes de surveillance

Comme de nombreux démocrates, plusieurs groupes de surveillance technologique s’inquiètent du fait qu’un cadre fédéral pourrait mettre trop de temps à être mis en place, entraînant un risque d’« abus incontrôlé » en attendant.

Dans une lettre envoyée aux dirigeants de la Chambre, une coalition de plus de 140 organisations a exhorté les législateurs à supprimer la disposition. Les signataires, y compris des groupes comme Amazon Employees for Climate Justice, ont fait valoir que les actions des États en matière d’IA ont jusqu’à présent essayé de protéger les résidents des risques ignorés par le Congrès.

La représentante Jan Schakowsky (D-Ill.), membre de haut rang du sous-comité de la Chambre sur le commerce, a qualifié cette proposition de « cadeau géant aux grandes entreprises technologiques ». Cependant, les petites et moyennes entreprises soutiennent que les grandes entreprises disposent des ressources nécessaires pour se conformer aux régulations étatiques, tandis que les plus petites ne le peuvent pas.

« Ces entrepreneurs seront ceux qui réaliseront les prochaines percées transformantes en IA si l’environnement politique les y encourage », a déclaré John Mitchell, directeur de l’Association technologique des consommateurs.

Il est clair que le débat sur la régulation de l’IA est loin d’être terminé, et l’avenir des lois sur l’IA aux États-Unis reste incertain.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...