Interdiction des lois étatiques sur l’IA : un débat enflammé

A broken circuit board

La poussée du GOP pour interdire les lois étatiques sur l’IA suscite un débat : Ce qu’il faut savoir

Cette semaine, les républicains de la Chambre ont avancé avec un projet de loi visant à interdire la régulation étatique de l’intelligence artificielle (IA), suscitant un débat au sein de la communauté technologique et parmi les législateurs concernant ses implications pour cette technologie émergente.

La proposition a été adoptée par la Chambre jeudi matin dans le cadre d’un projet de loi de dépenses et de fiscalité. Elle fait maintenant face à une bataille difficile au Sénat, en raison de règles procédurales et de la résistance potentielle de certains sénateurs républicains.

Que faut-il savoir

Le projet de loi, intégré dans le « grand et beau projet de loi » du président Trump, appelle à un moratoire de 10 ans sur les lois étatiques régissant les modèles d’IA, les systèmes ou les systèmes de décision automatisés. Cela comprend l’application des lois existantes et futures au niveau étatique.

Les partisans du moratoire soutiennent qu’un patchwork de lois étatiques peut être déroutant ou contraignant pour les entreprises technologiques qui opèrent dans plusieurs régions du pays.

« Actuellement, il y a plus de mille projets de loi sur le sujet de la régulation de l’IA en attente dans les législatures étatiques à travers le pays », a déclaré le représentant Jay Obernolte (R-Calif.) lors de la discussion de la mesure au sein du comité de l’énergie et du commerce de la Chambre.

Obernolte a ajouté : « Imaginez à quel point il serait difficile pour une agence fédérale qui opère dans les 50 États de naviguer dans ce labyrinthe de régulations, alors que nous avons potentiellement 50 États allant dans 50 directions différentes sur le sujet de la régulation de l’IA. »

Le projet de loi comprend certaines exemptions pour l’application des lois étatiques visant à promouvoir le développement de l’IA, y compris les régulations visant à éliminer les obstacles ou à faciliter l’utilisation des modèles et systèmes d’IA.

Cette initiative s’aligne avec l’agenda pro-innovation plus large de l’administration Trump, qui priorise le développement technologique par rapport aux régulations qui entravent l’innovation et la compétitivité américaines.

Aucun cadre fédéral encore

La plupart des partisans d’un moratoire précisent qu’ils ne sont pas contre la régulation en soi, mais estiment qu’elle devrait être faite au niveau fédéral pour établir une norme unifiée que les entreprises peuvent facilement suivre.

Bien que les législateurs discutent d’un cadre fédéral pour l’IA depuis des années, aucune initiative n’a encore progressé de manière significative.

Le groupe de travail de la Chambre sur l’IA a publié un rapport complet à la fin de l’année dernière qui proposait un cadre réglementaire fédéral. Obernolte, co-leader du groupe, a exprimé ses frustrations lors de la discussion, affirmant que le Congrès n’avait pas avancé sur cette question.

« Le Congrès doit se ressaisir et codifier certaines des choses dans ce rapport », a-t-il déclaré, ajoutant : « Un moratoire est approprié et nous donnera un peu de temps pour faire notre travail et réguler. »

En attendant, de nombreux démocrates s’opposent au moratoire, craignant qu’il ne soit excessif et ne mette en danger les consommateurs en l’absence d’une norme fédérale.

La représentante démocrate Doris Matsui (Calif.) a qualifié le moratoire de « gifle au visage des consommateurs américains ». L’État de Californie, qui est l’un des leaders en matière de législation et de régulation de l’IA, est particulièrement concerné.

« Les États-Unis devraient être à la tête de la course mondiale pour la domination dans le domaine de l’IA », a-t-elle déclaré. « Si nous ne prenons pas les devants, d’autres le feront. Cependant, nous ne pouvons pas nous tirer une balle dans le pied en stoppant les bonnes initiatives que les États ont déjà mises en place. »

Obstacles au Sénat

Bien que les républicains de la Chambre aient réussi à faire adopter cette disposition, elle fait face à de plus grands défis au Sénat. Les législateurs s’inquiètent de la possibilité que la disposition ne respecte pas la règle Byrd, une règle procédurale au Sénat interdisant l’inclusion de « questions extrinsèques » dans les paquets de réconciliation.

Il appartient au parlementaire du Sénat de déterminer si le moratoire enfreint la règle Byrd. De plus, au moins deux sénateurs républicains connus pour leurs critiques des grandes entreprises technologiques ont exprimé des inquiétudes concernant le moratoire cette semaine.

« Nous savons certainement qu’au Tennessee, nous avons besoin de ces protections », a déclaré la sénatrice Marsha Blackburn (R-Tenn.) lors d’une audience la semaine dernière. Elle a discuté de la nécessité d’une régulation fédérale avant de pouvoir appeler à un moratoire.

Le groupe de 40 procureurs généraux d’États a également qualifié cette initiative d’« irresponsable ».

Réactions de l’industrie technologique et des groupes de surveillance

Comme de nombreux démocrates, plusieurs groupes de surveillance technologique s’inquiètent du fait qu’un cadre fédéral pourrait mettre trop de temps à être mis en place, entraînant un risque d’« abus incontrôlé » en attendant.

Dans une lettre envoyée aux dirigeants de la Chambre, une coalition de plus de 140 organisations a exhorté les législateurs à supprimer la disposition. Les signataires, y compris des groupes comme Amazon Employees for Climate Justice, ont fait valoir que les actions des États en matière d’IA ont jusqu’à présent essayé de protéger les résidents des risques ignorés par le Congrès.

La représentante Jan Schakowsky (D-Ill.), membre de haut rang du sous-comité de la Chambre sur le commerce, a qualifié cette proposition de « cadeau géant aux grandes entreprises technologiques ». Cependant, les petites et moyennes entreprises soutiennent que les grandes entreprises disposent des ressources nécessaires pour se conformer aux régulations étatiques, tandis que les plus petites ne le peuvent pas.

« Ces entrepreneurs seront ceux qui réaliseront les prochaines percées transformantes en IA si l’environnement politique les y encourage », a déclaré John Mitchell, directeur de l’Association technologique des consommateurs.

Il est clair que le débat sur la régulation de l’IA est loin d’être terminé, et l’avenir des lois sur l’IA aux États-Unis reste incertain.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...