L’interdiction des lois étatiques sur l’IA : un risque pour la protection des consommateurs

A padlock being cut

Un moratoire sur les lois étatiques concernant l’IA pourrait compromettre les protections juridiques de Big Tech

La récente proposition des républicains du Sénat de maintenir un moratoire de dix ans sur les lois étatiques relatives à l’IA dans le cadre du vaste package budgétaire de l’administration Trump suscite de vives inquiétudes. De nombreux législateurs et groupes de la société civile avertissent que le langage large de cette mesure pourrait mettre en péril les protections des consommateurs.

Une protection ou une menace?

Les républicains soutenant cette disposition affirment qu’elle permettra d’éviter aux entreprises d’IA d’être submergées par un patchwork complexe de réglementations. Cependant, les opposants signalent que si cette mesure venait à être adoptée, les entreprises de Big Tech pourraient être exemptées des garde-fous juridiques étatiques pendant des années, sans aucune promesse de normes fédérales pour les remplacer.

Rep. Ro Khanna (D-CA) met en garde : « Ce moratoire empêche chaque État du pays d’avoir des réglementations de base pour protéger les travailleurs et les consommateurs. » Selon lui, la rédaction actuelle pourrait restreindre les lois étatiques visant à réguler les entreprises de médias sociaux, à prévenir la discrimination algorithmique en matière de loyers ou à limiter les deepfakes d’IA qui pourraient induire en erreur les consommateurs et les électeurs. « Cela donnerait essentiellement une liberté totale aux entreprises pour développer l’IA sans protéger les consommateurs, les travailleurs et les enfants. »

Une portée incertaine

La portée de ce moratoire est floue, et les critiques affirment que c’est là tout le problème. Jonathan Walter, conseiller politique senior à la Leadership Conference on Civil and Human Rights, déclare que le langage de la loi concernant la prise de décision automatisée est si large qu’il est impossible d’être certain des lois étatiques qu’elle pourrait toucher. « Une chose est presque certaine : cela va au-delà de l’IA », affirme-t-il.

Cela pourrait inclure des normes de précision et des tests indépendants requis pour les modèles de reconnaissance faciale dans des États comme le Colorado et Washington, ainsi que des éléments de lois sur la protection des données dans plusieurs États. Une analyse menée par le groupe de défense des droits des IA, Americans for Responsible Innovation (ARI), a révélé qu’une loi axée sur les médias sociaux, telle que la « Stop Addictive Feeds Exploitation for Kids Act » de New York, pourrait être annulée par cette disposition.

Des implications législatives

Le nouveau texte du Sénat introduit sa propre série de complications. La disposition n’est plus un simple interdiction, mais elle conditionne les fonds d’infrastructure à large bande des États à l’adhésion au moratoire de dix ans. Contrairement à la version de la Chambre, la version du Sénat couvrirait également les lois criminelles des États.

Les partisans du moratoire sur l’IA soutiennent qu’il ne s’appliquerait pas à autant de lois que le prétendent les critiques. Cependant, J.B. Branch, défenseur de la responsabilité de Big Tech au sein de Public Citizen, affirme que « tout avocat de Big Tech qui vaut son sel va argumenter que cela s’applique, que c’est ainsi que cela a été conçu. »

Un appel à la réflexion

Khanna explique que certains de ses collègues n’ont peut-être pas pleinement réalisé l’ampleur de la règle. « Je ne pense pas qu’ils aient réfléchi à la manière dont le moratoire est large et à quel point cela entraverait notre capacité à protéger les consommateurs et les enfants contre l’automatisation », dit-il. Depuis son passage à la Chambre, même Rep. Marjorie Taylor Greene (R-GA), une alliée indéfectible de Trump, a déclaré qu’elle aurait voté contre le OBBB si elle avait su que le moratoire sur l’IA y était inclus.

Vers une régulation fédérale?

La loi SB 1047 de Californie est considérée comme le symbole de ce que les acteurs de l’industrie qualifient de législation étatique excessive. Ce projet de loi, qui visait à instaurer des garde-fous pour les grands modèles d’IA, a été voté par le gouverneur démocrate Gavin Newsom après une intense campagne de pression de la part d’OpenAI et d’autres. Des entreprises comme OpenAI, dont le PDG Sam Altman plaidait autrefois pour une régulation de l’industrie, se sont récemment concentrées sur l’élimination des règles qu’elles estiment pouvoir les empêcher de rivaliser avec la Chine dans la course à l’IA.

Khanna reconnaît qu’il existe « certaines réglementations étatiques mal conçues ». Selon lui, maintenir l’avance des États-Unis sur la Chine dans la course à l’IA doit être une priorité. « Mais l’approche devrait être de rédiger une bonne réglementation fédérale. » Avec la rapidité et l’imprévisibilité de l’innovation en IA, Branch affirme qu’« il est imprudent de lier les États sans leur permettre d’anticiper les futurs dommages ». Si aucune législation étatique n’est garantie pendant une décennie, Khanna prévient que le Congrès subira peu de pression pour adopter ses propres lois. « Ce que vous faites réellement avec ce moratoire, c’est créer le Far West », conclut-il.

Avant la publication du texte du Sénat, des dizaines de collègues démocrates californiens de Khanna à la Chambre, dirigés par Rep. Doris Matsui (D-CA), ont signé une lettre aux dirigeants du Sénat les exhortant à supprimer la disposition sur l’IA, affirmant qu’elle « expose les Américains à une liste croissante de dangers à mesure que les technologies de l’IA sont adoptées dans des secteurs allant de la santé à l’éducation, en passant par le logement et les transports ». Ils avertissent que la définition large de l’IA « couvre sans doute tout traitement informatique ». Plus de 250 législateurs d’État représentant tous les États ont également demandé au Congrès de renoncer à cette disposition.

« À mesure que la technologie de l’IA évolue rapidement, les gouvernements étatiques et locaux sont plus agiles dans leur réponse que le Congrès et les agences fédérales », écrivent-ils. « Une législation qui coupe ce dialogue démocratique au niveau des États gèlerait l’innovation politique dans l’élaboration des meilleures pratiques pour la gouvernance de l’IA à un moment où l’expérimentation est vitale. »

Khanna met en garde que rater le coche en matière de réglementation de l’IA pourrait avoir des enjeux encore plus élevés que d’autres politiques Internet comme la neutralité du net. « Cela n’impactera pas seulement la structure d’Internet », dit-il. « Cela aura des répercussions sur les emplois des gens. Cela influencera le rôle que les algorithmes peuvent jouer dans les médias sociaux. Cela impactera chaque aspect de nos vies, et cela permettra à quelques personnes qui contrôlent l’IA de tirer profit sans responsabilité envers le bien public, envers le peuple américain. »

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...