Interdiction de la réglementation de l’IA : un pas en arrière pour les États

A stop sign

Interdiction de la Réglementation de l’IA par les États : Avancée à la Chambre des Représentants des États-Unis

La Chambre des Représentants des États-Unis a adopté un projet de loi budgétaire fédéral qui inclut un moratoire controversé de dix ans sur la réglementation de l’intelligence artificielle (IA) par les États. Cette législation est maintenant soumise à l’examen du Sénat américain.

Contexte de l’Interdiction

La proposition d’interdiction de la réglementation a rencontré une résistance considérable, des experts arguant que sa formulation empêche les États d’appliquer les lois qu’ils ont déjà adoptées, compromettant ainsi leurs efforts pour protéger et servir leurs citoyens.

Le projet de loi, intitulé One Big Beautiful Bill Act, a été approuvé par la Chambre avec un vote de 215 à 214. Il stipule qu’aucun gouvernement d’État ou local ne peut appliquer de lois ou de réglementations concernant les modèles d’IA, les systèmes d’IA ou les décisions automatisées pendant la prochaine décennie.

Réactions des Experts

Travis Hall, directeur de l’engagement des États au Center for Democracy and Technology, a déclaré que cette interdiction limiterait les capacités des responsables d’État à faire respecter les lois axées sur les outils d’IA.

Brad Carson, président d’Americans for Responsible Innovation, a exprimé que l’empêchement des législateurs des États d’adopter des garanties de sécurité liées à l’IA met en danger les citoyens américains en raison des risques potentiels associés à l’IA, allant des préjugés à la désinformation et aux problèmes de sécurité des données.

Carson a ajouté que les arguments en faveur de cette disposition ne tiennent que si l’on croit que le gouvernement fédéral adoptera bientôt des règles de protection pour le public ou que l’IA sera une technologie complètement bénigne sans contraintes réglementaires.

Défis au Sénat

Le projet de loi devrait faire face à des défis au Sénat en raison de la Byrd Rule, adoptée en 1985 pour préserver le processus de réforme budgétaire. Cette règle interdit l’inclusion de « matériaux extrinsèques » dans la réconciliation, qui ne produisent pas de changements dans les dépenses ou les revenus.

Tim Storey, PDG de la National Conference of State Legislatures, a déclaré dans une lettre que une disposition préemptant largement les lois sur l’IA des États violerait la Byrd Rule, car son principal objectif est de limiter l’autorité législative des États plutôt que d’atteindre des résultats budgétaires substantiels.

Réponse des Fonctionnaires des États

Quarante avocats généraux des États ont signé une lettre adressée aux dirigeants du Congrès ce mois-ci, s’opposant à l’amendement. La lettre avertit que l’impact d’un tel moratoire serait dévastateur pour les efforts raisonnables des États visant à prévenir les dangers connus associés à l’IA.

La lettre cite des lois spécifiques sur l’IA qui pourraient exposer les citoyens à des risques si les États ne peuvent pas les appliquer, notamment des lois protégeant contre les matériaux explicites générés par l’IA et contre les deepfakes conçus pour induire les électeurs en erreur.

Conclusion

Alors que certains responsables d’États, comme le gouverneur du Colorado, Jared Polis, soutiennent le moratoire de dix ans, la majorité des experts et des responsables judiciaires s’inquiètent des conséquences potentiellement néfastes de cette législation sur la capacité des États à réglementer l’IA et à protéger leurs citoyens.

Articles

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...