Interdiction de la réglementation de l’IA : un pas en arrière pour les États

A stop sign

Interdiction de la Réglementation de l’IA par les États : Avancée à la Chambre des Représentants des États-Unis

La Chambre des Représentants des États-Unis a adopté un projet de loi budgétaire fédéral qui inclut un moratoire controversé de dix ans sur la réglementation de l’intelligence artificielle (IA) par les États. Cette législation est maintenant soumise à l’examen du Sénat américain.

Contexte de l’Interdiction

La proposition d’interdiction de la réglementation a rencontré une résistance considérable, des experts arguant que sa formulation empêche les États d’appliquer les lois qu’ils ont déjà adoptées, compromettant ainsi leurs efforts pour protéger et servir leurs citoyens.

Le projet de loi, intitulé One Big Beautiful Bill Act, a été approuvé par la Chambre avec un vote de 215 à 214. Il stipule qu’aucun gouvernement d’État ou local ne peut appliquer de lois ou de réglementations concernant les modèles d’IA, les systèmes d’IA ou les décisions automatisées pendant la prochaine décennie.

Réactions des Experts

Travis Hall, directeur de l’engagement des États au Center for Democracy and Technology, a déclaré que cette interdiction limiterait les capacités des responsables d’État à faire respecter les lois axées sur les outils d’IA.

Brad Carson, président d’Americans for Responsible Innovation, a exprimé que l’empêchement des législateurs des États d’adopter des garanties de sécurité liées à l’IA met en danger les citoyens américains en raison des risques potentiels associés à l’IA, allant des préjugés à la désinformation et aux problèmes de sécurité des données.

Carson a ajouté que les arguments en faveur de cette disposition ne tiennent que si l’on croit que le gouvernement fédéral adoptera bientôt des règles de protection pour le public ou que l’IA sera une technologie complètement bénigne sans contraintes réglementaires.

Défis au Sénat

Le projet de loi devrait faire face à des défis au Sénat en raison de la Byrd Rule, adoptée en 1985 pour préserver le processus de réforme budgétaire. Cette règle interdit l’inclusion de « matériaux extrinsèques » dans la réconciliation, qui ne produisent pas de changements dans les dépenses ou les revenus.

Tim Storey, PDG de la National Conference of State Legislatures, a déclaré dans une lettre que une disposition préemptant largement les lois sur l’IA des États violerait la Byrd Rule, car son principal objectif est de limiter l’autorité législative des États plutôt que d’atteindre des résultats budgétaires substantiels.

Réponse des Fonctionnaires des États

Quarante avocats généraux des États ont signé une lettre adressée aux dirigeants du Congrès ce mois-ci, s’opposant à l’amendement. La lettre avertit que l’impact d’un tel moratoire serait dévastateur pour les efforts raisonnables des États visant à prévenir les dangers connus associés à l’IA.

La lettre cite des lois spécifiques sur l’IA qui pourraient exposer les citoyens à des risques si les États ne peuvent pas les appliquer, notamment des lois protégeant contre les matériaux explicites générés par l’IA et contre les deepfakes conçus pour induire les électeurs en erreur.

Conclusion

Alors que certains responsables d’États, comme le gouverneur du Colorado, Jared Polis, soutiennent le moratoire de dix ans, la majorité des experts et des responsables judiciaires s’inquiètent des conséquences potentiellement néfastes de cette législation sur la capacité des États à réglementer l’IA et à protéger leurs citoyens.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...