L’impact du Big Beautiful Bill sur l’innovation en IA aux États-Unis

A traffic barrier

Comment le « Big Beautiful Bill » de Trump pourrait nuire au développement de l’IA aux États-Unis

Une nouvelle loi américaine interdirait la réglementation de l’IA au niveau des États pendant 10 ans, accordant ainsi à Big Tech un pouvoir sans précédent. Les critiques mettent en garde contre les dangers pour l’innovation, la transparence et la confiance du public, tout en isolant les États-Unis des normes mondiales en matière d’IA et en renforçant les monopoles dans l’industrie.

Comme beaucoup de propositions de l’administration actuelle des États-Unis, le projet de loi Trump est qualifié de « grand » et de « beau ». Mais que cache ce nom flamboyant ? À côté d’une variété de politiques fiscales, d’immigration et de défense, le projet de loi contient une disposition sur l’intelligence artificielle qui pourrait avoir des conséquences catastrophiques pour le développement global de l’IA.

Le projet de loi stipule : « Aucun État ou subdivision politique de celui-ci ne peut appliquer de loi ou de réglementation régissant les modèles d’intelligence artificielle, les systèmes d’intelligence artificielle ou les systèmes de décision automatisés pendant la période de 10 ans à partir de la date de promulgation de cette loi. »

En essence, le Parti républicain offre à Big Tech un cadeau somptueux : une immunité d’une décennie contre la réglementation des États en matière d’IA. Les conséquences pourraient être désastreuses pour l’innovation et la confiance du public dans la technologie. Sans une supervision éthique et transparente garantissant la responsabilité publique, le contrôle sur les systèmes d’IA reposera uniquement dans les conseils d’administration des entreprises.

Quel impact le Big Beautiful Bill aura-t-il sur l’IA ?

  • Une supervision limitée signifiera une responsabilité limitée.
  • Les entreprises de Big Tech s’enracineront davantage dans le secteur, évincant les acteurs plus petits et les startups.
  • La confiance du public dans l’IA s’évaporera.
  • La position des États-Unis en tant que leader mondial de l’IA s’érodera.

Pas de supervision, pas de responsabilité

Jusqu’à présent, la réglementation de l’IA aux États-Unis a été largement laxiste. Tous les modèles déployés ont été laissés sans surveillance – ce qui, en de nombreuses manières, est une manière naturelle de procéder. La technologie avance toujours plus vite que les réglementations. Les États-Unis ressentent également la pression de la course mondiale à l’IA, notamment face à des concurrents chinois. Inquiets pour la sécurité nationale, les législateurs et les responsables de partis menacés sont désireux de ne pas entraver Big Tech.

Prioriser la « sécurité nationale » au détriment de la sécurité et des droits des citoyens est cependant dangereux. Plus de 140 organisations ont reconnu ce danger dans une lettre ouverte, exhortant les législateurs à rejeter la proposition. Toute technologie, surtout une aussi puissante que l’IA, peut causer des dommages. La réglementation au niveau des États pourrait être la première ligne de défense, prête à atténuer et à répondre avant que des dommages ne soient causés.

Big Tech deviendra plus grand

En bloquant la réglementation au niveau des États, le projet de loi garantit presque la poursuite de l’enracinement de Big Tech dans l’industrie de l’intelligence artificielle. OpenAI, Anthropic, Microsoft, Amazon et Google ont chacun généré plus d’un milliard de dollars de revenus en 2024. Aucune autre entreprise n’a dépassé les 100 millions de dollars. Sans normes équitables ou écosystèmes ouverts, les acteurs plus petits et les startups sont laissés à se débrouiller dans un jeu truqué. L’absence de supervision ne crée pas un terrain de jeu équitable. Au contraire, elle renforce les avantages de ceux qui sont déjà au sommet.

Il n’est pas surprenant que les dirigeants de Big Tech aient résisté aux efforts visant à imposer des garde-fous aux États-Unis. Des sénateurs comme Ted Cruz et d’autres, à l’avant-garde de la déréglementation, insistent pour que l’IA soit régie uniquement par des normes fédérales. En pratique, cela signifie aucune norme du tout, du moins pour l’instant. Et sans elles, l’innovation risque de devenir le domaine exclusif de ceux qui contrôlent déjà l’infrastructure, les données et le récit.

La confiance du public dans l’IA s’évaporera davantage

Si les dommages causés par l’IA restent sans réponse et opaques, la confiance dans l’ensemble du système commence à se déliter. La transparence n’est pas un luxe, mais plutôt une condition préalable à la légitimité dans un monde déjà inquiet au sujet de l’IA. Selon le Pew Research Center, plus de la moitié des adultes américains sont plus inquiets qu’excités par les développements récents, en particulier concernant l’utilisation de l’IA dans les décisions d’embauche et les soins de santé. Le projet de loi sur la réglementation de l’IA a reçu un large soutien et a été adopté par la législature de Californie, pour ensuite être rejeté par le gouverneur Gavin Newsom après de fortes pressions.

Même certains législateurs fédéraux, comme le sénateur Josh Hawley, ont exprimé des inquiétudes concernant la réglementation. « Je pense que, simplement d’un point de vue fédéral, nous voudrions que les États puissent essayer différents régimes », a-t-il déclaré, plaidant pour une forme de supervision sensée pour protéger les libertés civiles. Mais le Big Beautiful Bill laisse simplement le public sans recours, sans transparence et sans raison de faire confiance aux technologies qui façonnent leur vie.

DOGE était un signe d’avertissement

Nous avons déjà vu cette stratégie. L’initiative DOGE, sous Trump, a réduit les équipes travaillant sur la politique de l’IA et la recherche. La surveillance externe a été écartée, les agences fédérales, anéanties. Cela a abouti à un échec prévisible : violations de la vie privée, résultats biaisés, un pool d’expertise institutionnelle vidé et Elon Musk retournant à ses affaires.

Plutôt qu’une erreur, DOGE était une étude de cas sur ce qui se passe lorsque la transparence est échangée contre le contrôle et que le processus dû est traité comme une nuisance. Répéter cette erreur, sous le couvert du Big Beautiful Bill, risquerait d’entraîner des dommages encore plus grands avec beaucoup moins de garde-fous pour l’arrêter.

Il est temps de remettre en question le leadership mondial de l’IA des États-Unis

Tandis que d’autres régions comme l’UE avancent avec des cadres éthiques et centrés sur l’humain pour l’IA, les États-Unis s’orientent dans la direction opposée vers un vide réglementaire. Ce contraste risque plus qu’un simple dommage réputationnel. Il pourrait isoler les États-Unis dans la coopération internationale en matière d’IA et entraîner une réaction négative de la part des alliés et des puissances émergentes de l’IA. L’incapacité à respecter les normes internationales en matière de gouvernance des données, de transparence algorithmique et de normes de sécurité de l’IA pourrait conduire à l’exclusion des entreprises américaines des marchés et des efforts de recherche conjoints.

Bien que Big Tech américain soit actuellement en tête de la course à l’IA, le monde a d’autres alternatives émergentes qui s’efforcent de développer des modèles justes et éthiques. Des pays de la région MENA, comme le Qatar, investissent également de plus en plus dans l’IA avec un œil sur la compétitivité mondiale, la responsabilité et le leadership dans l’IA décentralisée. Alors que le monde se dirige vers une innovation responsable, les États-Unis semblent prêts à protéger les intérêts des entreprises au détriment du leadership mondial en permettant à Big Tech de développer des modèles sans tenir compte du bien public.

Comme le premier a rapporté, le projet de loi serait un cadeau pour des géants technologiques comme Meta, qui ont fait pression sur la Maison Blanche pour s’opposer aux réglementations au niveau des États en arguant qu’elles « pourraient entraver l’innovation et l’investissement ». Mais la déréglementation n’est pas une vision. C’est un retrait, qui laisse les États-Unis ressembler moins à un leader et plus à un outsider.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...