Un moratoire sur les lois étatiques concernant l’IA pourrait compromettre les protections juridiques de Big Tech
La récente proposition des républicains du Sénat de maintenir un moratoire de dix ans sur les lois étatiques relatives à l’IA dans le cadre du vaste package budgétaire de l’administration Trump suscite de vives inquiétudes. De nombreux législateurs et groupes de la société civile avertissent que le langage large de cette mesure pourrait mettre en péril les protections des consommateurs.
Une protection ou une menace?
Les républicains soutenant cette disposition affirment qu’elle permettra d’éviter aux entreprises d’IA d’être submergées par un patchwork complexe de réglementations. Cependant, les opposants signalent que si cette mesure venait à être adoptée, les entreprises de Big Tech pourraient être exemptées des garde-fous juridiques étatiques pendant des années, sans aucune promesse de normes fédérales pour les remplacer.
Rep. Ro Khanna (D-CA) met en garde : « Ce moratoire empêche chaque État du pays d’avoir des réglementations de base pour protéger les travailleurs et les consommateurs. » Selon lui, la rédaction actuelle pourrait restreindre les lois étatiques visant à réguler les entreprises de médias sociaux, à prévenir la discrimination algorithmique en matière de loyers ou à limiter les deepfakes d’IA qui pourraient induire en erreur les consommateurs et les électeurs. « Cela donnerait essentiellement une liberté totale aux entreprises pour développer l’IA sans protéger les consommateurs, les travailleurs et les enfants. »
Une portée incertaine
La portée de ce moratoire est floue, et les critiques affirment que c’est là tout le problème. Jonathan Walter, conseiller politique senior à la Leadership Conference on Civil and Human Rights, déclare que le langage de la loi concernant la prise de décision automatisée est si large qu’il est impossible d’être certain des lois étatiques qu’elle pourrait toucher. « Une chose est presque certaine : cela va au-delà de l’IA », affirme-t-il.
Cela pourrait inclure des normes de précision et des tests indépendants requis pour les modèles de reconnaissance faciale dans des États comme le Colorado et Washington, ainsi que des éléments de lois sur la protection des données dans plusieurs États. Une analyse menée par le groupe de défense des droits des IA, Americans for Responsible Innovation (ARI), a révélé qu’une loi axée sur les médias sociaux, telle que la « Stop Addictive Feeds Exploitation for Kids Act » de New York, pourrait être annulée par cette disposition.
Des implications législatives
Le nouveau texte du Sénat introduit sa propre série de complications. La disposition n’est plus un simple interdiction, mais elle conditionne les fonds d’infrastructure à large bande des États à l’adhésion au moratoire de dix ans. Contrairement à la version de la Chambre, la version du Sénat couvrirait également les lois criminelles des États.
Les partisans du moratoire sur l’IA soutiennent qu’il ne s’appliquerait pas à autant de lois que le prétendent les critiques. Cependant, J.B. Branch, défenseur de la responsabilité de Big Tech au sein de Public Citizen, affirme que « tout avocat de Big Tech qui vaut son sel va argumenter que cela s’applique, que c’est ainsi que cela a été conçu. »
Un appel à la réflexion
Khanna explique que certains de ses collègues n’ont peut-être pas pleinement réalisé l’ampleur de la règle. « Je ne pense pas qu’ils aient réfléchi à la manière dont le moratoire est large et à quel point cela entraverait notre capacité à protéger les consommateurs et les enfants contre l’automatisation », dit-il. Depuis son passage à la Chambre, même Rep. Marjorie Taylor Greene (R-GA), une alliée indéfectible de Trump, a déclaré qu’elle aurait voté contre le OBBB si elle avait su que le moratoire sur l’IA y était inclus.
Vers une régulation fédérale?
La loi SB 1047 de Californie est considérée comme le symbole de ce que les acteurs de l’industrie qualifient de législation étatique excessive. Ce projet de loi, qui visait à instaurer des garde-fous pour les grands modèles d’IA, a été voté par le gouverneur démocrate Gavin Newsom après une intense campagne de pression de la part d’OpenAI et d’autres. Des entreprises comme OpenAI, dont le PDG Sam Altman plaidait autrefois pour une régulation de l’industrie, se sont récemment concentrées sur l’élimination des règles qu’elles estiment pouvoir les empêcher de rivaliser avec la Chine dans la course à l’IA.
Khanna reconnaît qu’il existe « certaines réglementations étatiques mal conçues ». Selon lui, maintenir l’avance des États-Unis sur la Chine dans la course à l’IA doit être une priorité. « Mais l’approche devrait être de rédiger une bonne réglementation fédérale. » Avec la rapidité et l’imprévisibilité de l’innovation en IA, Branch affirme qu’« il est imprudent de lier les États sans leur permettre d’anticiper les futurs dommages ». Si aucune législation étatique n’est garantie pendant une décennie, Khanna prévient que le Congrès subira peu de pression pour adopter ses propres lois. « Ce que vous faites réellement avec ce moratoire, c’est créer le Far West », conclut-il.
Avant la publication du texte du Sénat, des dizaines de collègues démocrates californiens de Khanna à la Chambre, dirigés par Rep. Doris Matsui (D-CA), ont signé une lettre aux dirigeants du Sénat les exhortant à supprimer la disposition sur l’IA, affirmant qu’elle « expose les Américains à une liste croissante de dangers à mesure que les technologies de l’IA sont adoptées dans des secteurs allant de la santé à l’éducation, en passant par le logement et les transports ». Ils avertissent que la définition large de l’IA « couvre sans doute tout traitement informatique ». Plus de 250 législateurs d’État représentant tous les États ont également demandé au Congrès de renoncer à cette disposition.
« À mesure que la technologie de l’IA évolue rapidement, les gouvernements étatiques et locaux sont plus agiles dans leur réponse que le Congrès et les agences fédérales », écrivent-ils. « Une législation qui coupe ce dialogue démocratique au niveau des États gèlerait l’innovation politique dans l’élaboration des meilleures pratiques pour la gouvernance de l’IA à un moment où l’expérimentation est vitale. »
Khanna met en garde que rater le coche en matière de réglementation de l’IA pourrait avoir des enjeux encore plus élevés que d’autres politiques Internet comme la neutralité du net. « Cela n’impactera pas seulement la structure d’Internet », dit-il. « Cela aura des répercussions sur les emplois des gens. Cela influencera le rôle que les algorithmes peuvent jouer dans les médias sociaux. Cela impactera chaque aspect de nos vies, et cela permettra à quelques personnes qui contrôlent l’IA de tirer profit sans responsabilité envers le bien public, envers le peuple américain. »