L’impact du Big Beautiful Bill sur l’innovation en IA aux États-Unis

A traffic barrier

Comment le « Big Beautiful Bill » de Trump pourrait nuire au développement de l’IA aux États-Unis

Une nouvelle loi américaine interdirait la réglementation de l’IA au niveau des États pendant 10 ans, accordant ainsi à Big Tech un pouvoir sans précédent. Les critiques mettent en garde contre les dangers pour l’innovation, la transparence et la confiance du public, tout en isolant les États-Unis des normes mondiales en matière d’IA et en renforçant les monopoles dans l’industrie.

Comme beaucoup de propositions de l’administration actuelle des États-Unis, le projet de loi Trump est qualifié de « grand » et de « beau ». Mais que cache ce nom flamboyant ? À côté d’une variété de politiques fiscales, d’immigration et de défense, le projet de loi contient une disposition sur l’intelligence artificielle qui pourrait avoir des conséquences catastrophiques pour le développement global de l’IA.

Le projet de loi stipule : « Aucun État ou subdivision politique de celui-ci ne peut appliquer de loi ou de réglementation régissant les modèles d’intelligence artificielle, les systèmes d’intelligence artificielle ou les systèmes de décision automatisés pendant la période de 10 ans à partir de la date de promulgation de cette loi. »

En essence, le Parti républicain offre à Big Tech un cadeau somptueux : une immunité d’une décennie contre la réglementation des États en matière d’IA. Les conséquences pourraient être désastreuses pour l’innovation et la confiance du public dans la technologie. Sans une supervision éthique et transparente garantissant la responsabilité publique, le contrôle sur les systèmes d’IA reposera uniquement dans les conseils d’administration des entreprises.

Quel impact le Big Beautiful Bill aura-t-il sur l’IA ?

  • Une supervision limitée signifiera une responsabilité limitée.
  • Les entreprises de Big Tech s’enracineront davantage dans le secteur, évincant les acteurs plus petits et les startups.
  • La confiance du public dans l’IA s’évaporera.
  • La position des États-Unis en tant que leader mondial de l’IA s’érodera.

Pas de supervision, pas de responsabilité

Jusqu’à présent, la réglementation de l’IA aux États-Unis a été largement laxiste. Tous les modèles déployés ont été laissés sans surveillance – ce qui, en de nombreuses manières, est une manière naturelle de procéder. La technologie avance toujours plus vite que les réglementations. Les États-Unis ressentent également la pression de la course mondiale à l’IA, notamment face à des concurrents chinois. Inquiets pour la sécurité nationale, les législateurs et les responsables de partis menacés sont désireux de ne pas entraver Big Tech.

Prioriser la « sécurité nationale » au détriment de la sécurité et des droits des citoyens est cependant dangereux. Plus de 140 organisations ont reconnu ce danger dans une lettre ouverte, exhortant les législateurs à rejeter la proposition. Toute technologie, surtout une aussi puissante que l’IA, peut causer des dommages. La réglementation au niveau des États pourrait être la première ligne de défense, prête à atténuer et à répondre avant que des dommages ne soient causés.

Big Tech deviendra plus grand

En bloquant la réglementation au niveau des États, le projet de loi garantit presque la poursuite de l’enracinement de Big Tech dans l’industrie de l’intelligence artificielle. OpenAI, Anthropic, Microsoft, Amazon et Google ont chacun généré plus d’un milliard de dollars de revenus en 2024. Aucune autre entreprise n’a dépassé les 100 millions de dollars. Sans normes équitables ou écosystèmes ouverts, les acteurs plus petits et les startups sont laissés à se débrouiller dans un jeu truqué. L’absence de supervision ne crée pas un terrain de jeu équitable. Au contraire, elle renforce les avantages de ceux qui sont déjà au sommet.

Il n’est pas surprenant que les dirigeants de Big Tech aient résisté aux efforts visant à imposer des garde-fous aux États-Unis. Des sénateurs comme Ted Cruz et d’autres, à l’avant-garde de la déréglementation, insistent pour que l’IA soit régie uniquement par des normes fédérales. En pratique, cela signifie aucune norme du tout, du moins pour l’instant. Et sans elles, l’innovation risque de devenir le domaine exclusif de ceux qui contrôlent déjà l’infrastructure, les données et le récit.

La confiance du public dans l’IA s’évaporera davantage

Si les dommages causés par l’IA restent sans réponse et opaques, la confiance dans l’ensemble du système commence à se déliter. La transparence n’est pas un luxe, mais plutôt une condition préalable à la légitimité dans un monde déjà inquiet au sujet de l’IA. Selon le Pew Research Center, plus de la moitié des adultes américains sont plus inquiets qu’excités par les développements récents, en particulier concernant l’utilisation de l’IA dans les décisions d’embauche et les soins de santé. Le projet de loi sur la réglementation de l’IA a reçu un large soutien et a été adopté par la législature de Californie, pour ensuite être rejeté par le gouverneur Gavin Newsom après de fortes pressions.

Même certains législateurs fédéraux, comme le sénateur Josh Hawley, ont exprimé des inquiétudes concernant la réglementation. « Je pense que, simplement d’un point de vue fédéral, nous voudrions que les États puissent essayer différents régimes », a-t-il déclaré, plaidant pour une forme de supervision sensée pour protéger les libertés civiles. Mais le Big Beautiful Bill laisse simplement le public sans recours, sans transparence et sans raison de faire confiance aux technologies qui façonnent leur vie.

DOGE était un signe d’avertissement

Nous avons déjà vu cette stratégie. L’initiative DOGE, sous Trump, a réduit les équipes travaillant sur la politique de l’IA et la recherche. La surveillance externe a été écartée, les agences fédérales, anéanties. Cela a abouti à un échec prévisible : violations de la vie privée, résultats biaisés, un pool d’expertise institutionnelle vidé et Elon Musk retournant à ses affaires.

Plutôt qu’une erreur, DOGE était une étude de cas sur ce qui se passe lorsque la transparence est échangée contre le contrôle et que le processus dû est traité comme une nuisance. Répéter cette erreur, sous le couvert du Big Beautiful Bill, risquerait d’entraîner des dommages encore plus grands avec beaucoup moins de garde-fous pour l’arrêter.

Il est temps de remettre en question le leadership mondial de l’IA des États-Unis

Tandis que d’autres régions comme l’UE avancent avec des cadres éthiques et centrés sur l’humain pour l’IA, les États-Unis s’orientent dans la direction opposée vers un vide réglementaire. Ce contraste risque plus qu’un simple dommage réputationnel. Il pourrait isoler les États-Unis dans la coopération internationale en matière d’IA et entraîner une réaction négative de la part des alliés et des puissances émergentes de l’IA. L’incapacité à respecter les normes internationales en matière de gouvernance des données, de transparence algorithmique et de normes de sécurité de l’IA pourrait conduire à l’exclusion des entreprises américaines des marchés et des efforts de recherche conjoints.

Bien que Big Tech américain soit actuellement en tête de la course à l’IA, le monde a d’autres alternatives émergentes qui s’efforcent de développer des modèles justes et éthiques. Des pays de la région MENA, comme le Qatar, investissent également de plus en plus dans l’IA avec un œil sur la compétitivité mondiale, la responsabilité et le leadership dans l’IA décentralisée. Alors que le monde se dirige vers une innovation responsable, les États-Unis semblent prêts à protéger les intérêts des entreprises au détriment du leadership mondial en permettant à Big Tech de développer des modèles sans tenir compte du bien public.

Comme le premier a rapporté, le projet de loi serait un cadeau pour des géants technologiques comme Meta, qui ont fait pression sur la Maison Blanche pour s’opposer aux réglementations au niveau des États en arguant qu’elles « pourraient entraver l’innovation et l’investissement ». Mais la déréglementation n’est pas une vision. C’est un retrait, qui laisse les États-Unis ressembler moins à un leader et plus à un outsider.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...