Interdiction des lois étatiques sur l’IA : un débat enflammé

A broken circuit board

La poussée du GOP pour interdire les lois étatiques sur l’IA suscite un débat : Ce qu’il faut savoir

Cette semaine, les républicains de la Chambre ont avancé avec un projet de loi visant à interdire la régulation étatique de l’intelligence artificielle (IA), suscitant un débat au sein de la communauté technologique et parmi les législateurs concernant ses implications pour cette technologie émergente.

La proposition a été adoptée par la Chambre jeudi matin dans le cadre d’un projet de loi de dépenses et de fiscalité. Elle fait maintenant face à une bataille difficile au Sénat, en raison de règles procédurales et de la résistance potentielle de certains sénateurs républicains.

Que faut-il savoir

Le projet de loi, intégré dans le « grand et beau projet de loi » du président Trump, appelle à un moratoire de 10 ans sur les lois étatiques régissant les modèles d’IA, les systèmes ou les systèmes de décision automatisés. Cela comprend l’application des lois existantes et futures au niveau étatique.

Les partisans du moratoire soutiennent qu’un patchwork de lois étatiques peut être déroutant ou contraignant pour les entreprises technologiques qui opèrent dans plusieurs régions du pays.

« Actuellement, il y a plus de mille projets de loi sur le sujet de la régulation de l’IA en attente dans les législatures étatiques à travers le pays », a déclaré le représentant Jay Obernolte (R-Calif.) lors de la discussion de la mesure au sein du comité de l’énergie et du commerce de la Chambre.

Obernolte a ajouté : « Imaginez à quel point il serait difficile pour une agence fédérale qui opère dans les 50 États de naviguer dans ce labyrinthe de régulations, alors que nous avons potentiellement 50 États allant dans 50 directions différentes sur le sujet de la régulation de l’IA. »

Le projet de loi comprend certaines exemptions pour l’application des lois étatiques visant à promouvoir le développement de l’IA, y compris les régulations visant à éliminer les obstacles ou à faciliter l’utilisation des modèles et systèmes d’IA.

Cette initiative s’aligne avec l’agenda pro-innovation plus large de l’administration Trump, qui priorise le développement technologique par rapport aux régulations qui entravent l’innovation et la compétitivité américaines.

Aucun cadre fédéral encore

La plupart des partisans d’un moratoire précisent qu’ils ne sont pas contre la régulation en soi, mais estiment qu’elle devrait être faite au niveau fédéral pour établir une norme unifiée que les entreprises peuvent facilement suivre.

Bien que les législateurs discutent d’un cadre fédéral pour l’IA depuis des années, aucune initiative n’a encore progressé de manière significative.

Le groupe de travail de la Chambre sur l’IA a publié un rapport complet à la fin de l’année dernière qui proposait un cadre réglementaire fédéral. Obernolte, co-leader du groupe, a exprimé ses frustrations lors de la discussion, affirmant que le Congrès n’avait pas avancé sur cette question.

« Le Congrès doit se ressaisir et codifier certaines des choses dans ce rapport », a-t-il déclaré, ajoutant : « Un moratoire est approprié et nous donnera un peu de temps pour faire notre travail et réguler. »

En attendant, de nombreux démocrates s’opposent au moratoire, craignant qu’il ne soit excessif et ne mette en danger les consommateurs en l’absence d’une norme fédérale.

La représentante démocrate Doris Matsui (Calif.) a qualifié le moratoire de « gifle au visage des consommateurs américains ». L’État de Californie, qui est l’un des leaders en matière de législation et de régulation de l’IA, est particulièrement concerné.

« Les États-Unis devraient être à la tête de la course mondiale pour la domination dans le domaine de l’IA », a-t-elle déclaré. « Si nous ne prenons pas les devants, d’autres le feront. Cependant, nous ne pouvons pas nous tirer une balle dans le pied en stoppant les bonnes initiatives que les États ont déjà mises en place. »

Obstacles au Sénat

Bien que les républicains de la Chambre aient réussi à faire adopter cette disposition, elle fait face à de plus grands défis au Sénat. Les législateurs s’inquiètent de la possibilité que la disposition ne respecte pas la règle Byrd, une règle procédurale au Sénat interdisant l’inclusion de « questions extrinsèques » dans les paquets de réconciliation.

Il appartient au parlementaire du Sénat de déterminer si le moratoire enfreint la règle Byrd. De plus, au moins deux sénateurs républicains connus pour leurs critiques des grandes entreprises technologiques ont exprimé des inquiétudes concernant le moratoire cette semaine.

« Nous savons certainement qu’au Tennessee, nous avons besoin de ces protections », a déclaré la sénatrice Marsha Blackburn (R-Tenn.) lors d’une audience la semaine dernière. Elle a discuté de la nécessité d’une régulation fédérale avant de pouvoir appeler à un moratoire.

Le groupe de 40 procureurs généraux d’États a également qualifié cette initiative d’« irresponsable ».

Réactions de l’industrie technologique et des groupes de surveillance

Comme de nombreux démocrates, plusieurs groupes de surveillance technologique s’inquiètent du fait qu’un cadre fédéral pourrait mettre trop de temps à être mis en place, entraînant un risque d’« abus incontrôlé » en attendant.

Dans une lettre envoyée aux dirigeants de la Chambre, une coalition de plus de 140 organisations a exhorté les législateurs à supprimer la disposition. Les signataires, y compris des groupes comme Amazon Employees for Climate Justice, ont fait valoir que les actions des États en matière d’IA ont jusqu’à présent essayé de protéger les résidents des risques ignorés par le Congrès.

La représentante Jan Schakowsky (D-Ill.), membre de haut rang du sous-comité de la Chambre sur le commerce, a qualifié cette proposition de « cadeau géant aux grandes entreprises technologiques ». Cependant, les petites et moyennes entreprises soutiennent que les grandes entreprises disposent des ressources nécessaires pour se conformer aux régulations étatiques, tandis que les plus petites ne le peuvent pas.

« Ces entrepreneurs seront ceux qui réaliseront les prochaines percées transformantes en IA si l’environnement politique les y encourage », a déclaré John Mitchell, directeur de l’Association technologique des consommateurs.

Il est clair que le débat sur la régulation de l’IA est loin d’être terminé, et l’avenir des lois sur l’IA aux États-Unis reste incertain.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...