Interdiction de réguler l’IA : un danger pour notre démocratie

A caution sign

LA LOI H.R. 1 : UN MORATOIRE SUR LA RÉGULATION DE L’IA

Dans le cadre de la récente législation, H.R. 1, également connue sous le nom de One Big Beautiful Bill Act, se cache une clause préoccupante qui interdirait à tout gouvernement d’État ou local de réguler l’intelligence artificielle (IA) pendant une période de dix ans. Cette interdiction s’appliquerait à divers domaines sensibles, notamment l’application de la loi, les pratiques d’embauche, la surveillance, l’éducation, et même les services sociaux.

La seule exception à cette règle serait si une loi permettait d’implémenter l’IA plus rapidement. Ce type de disposition soulève des questions éthiques et pratiques sur l’innovation réelle dans le domaine de l’IA.

Des préoccupations légitimes

Cette clause devrait susciter une inquiétude profonde au sein du Congrès, notamment parmi les représentants tels que Ronny Jackson, Ted Cruz, et John Cornyn.

Le texte exact de la loi stipule :

(c) MORATORIUM.—
(1) IN GENERAL.—Except as provided in paragraph (2), no State or political subdivision thereof may enforce any law or regulation regulating artificial intelligence models, artificial intelligence systems, or automated decision systems during the 10-year period beginning on the date of the enactment of this Act.

Les implications d’un moratoire

Si ce moratoire était adopté, cela donnerait à des bureaucrates non élus et à des fonctionnaires politiques une carte blanche pour déployer des systèmes d’IA sans responsabilité publique. En effet, il est crucial de se demander : “Que se passe-t-il lorsque mon parti n’est plus au pouvoir ?”

Imaginez un futur gouvernement utilisant l’IA pour évaluer et pénaliser des gouvernements locaux en fonction de leurs tendances politiques, sans qu’aucune loi ne puisse être adoptée pour y mettre un terme.

Un appel à l’action

Si cette partie du projet de loi budgétaire est acceptée, il sera impossible d’adopter une loi, qu’elle soit d’État ou fédérale, qui régule les systèmes d’IA dans notre gouvernement. Cela soulève des préoccupations qui vont au-delà des guerres culturelles et des débats budgétaires.

Chaque citoyen, qu’il soit de gauche ou de droite, mérite d’avoir son mot à dire sur la manière dont ces technologies puissantes sont déployées, surtout lorsqu’elles peuvent être utilisées par des gouvernements avec peu de contrôle.

Nous appelons les citoyens à contacter leurs représentants pour exprimer leur opposition à ce moratoire sur la loi concernant l’IA dans le budget.

Réflexions finales

Il est légitime de se poser plusieurs questions :

  • “Pourquoi est-il légal d’inclure dans un projet de loi budgétaire des éléments qui ne sont pas liés à un budget ?”
  • “Qui a caché cette clause dans le projet de loi budgétaire de plus de 1 000 pages pour 2025 ?”

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...