Le Congrès doit préserver l’autorité des États dans la gouvernance de l’IA
L’intelligence artificielle transforme rapidement la manière dont les gouvernements servent leurs concitoyens, en optimisant les réponses aux urgences et en rationalisant les licences et l’urbanisme. Cependant, à mesure que les systèmes d’IA deviennent plus puissants et omniprésents, la question de leur gouvernance responsable est urgente.
Urgence croissante
Cette urgence s’est intensifiée récemment, avec un projet de décret exécutif qui empêcherait les États d’appliquer leurs propres réglementations sur l’IA. De plus, la direction de la Chambre envisage d’insérer un langage similaire dans la loi sur l’autorisation de la défense nationale. Pendant ce temps, une nouvelle loi californienne sur l’IA suscite des réactions fédérales, et un sénateur a annoncé son intention de proposer une législation la contestant directement.
Washington envisage de dépouiller les États de leur autorité pour gouverner les systèmes d’IA qu’ils déploient chaque jour. Il est crucial de comprendre que l’impact de l’IA sur les décisions au niveau des États est trop large et trop spécifique au contexte pour que le gouvernement fédéral puisse retarder et débattre.
Impact immédiat
Les responsables des gouvernements fédéral, étatique et local ont des responsabilités civiques uniques : maximiser les bénéfices sociaux tout en atténuant les préjudices potentiels pour leurs concitoyens. Par exemple, les États ont des exigences uniques pour fournir des services de planification, d’urbanisme et de délivrance de licences.
Un cadre de gouvernance fédérale serait mieux adapté aux besoins des entreprises innovantes qui développent et déploient rapidement des systèmes d’IA, tout en fournissant une prévisibilité aux entreprises. Cependant, le Congrès doit reconnaître qu’un cadre national doit inclure plus qu’un simple moratoire sur les lois des États. L’IA ne s’intègre pas facilement dans les réglementations existantes, et des approches innovantes sont nécessaires pour équilibrer la promesse de l’IA avec ses abus potentiels.
Risques de la centralisation
Si le Congrès impose un gel sur la réglementation de l’IA par les États, cela limiterait leur capacité à atténuer les problèmes dans des domaines tels que la santé, l’urbanisme, l’éducation et la sécurité publique. Cela pourrait entraîner plusieurs effets indésirables, tels que l’arrivée de systèmes non vérifiés dans les pipelines d’approvisionnement.
Un vide réglementaire permettrait aux fournisseurs de commercialiser des « solutions » d’IA non validées, érodant la confiance du public. De plus, les États seraient contraints de recourir à des solutions contractuelles ad hoc, ce qui complique leur capacité à déployer des systèmes d’IA sûrs et fiables.
Renforcer les États
Au lieu de marginaliser les États, le Congrès devrait les renforcer. Les États servent déjà de laboratoires de la démocratie, testant des mélanges d’incitations, de transparence et de responsabilité. En étant plus proches des entreprises locales, les États peuvent créer une réglementation réactive et agir rapidement face aux dangers émergents de l’IA.
La gouvernance de l’IA nécessite une collaboration. Le Congrès devrait rejeter les propositions qui bloquent les lois étatiques sur l’IA et travailler avec les États pour développer un modèle de gouvernance partagé qui protège le public tout en encourageant l’innovation responsable.
Conclusion
Renforcer l’autorité des États dans la gouvernance de l’IA ne sera pas un obstacle au progrès. C’est ainsi que l’IA peut renforcer les communautés, plutôt que d’affaiblir les institutions qui les servent.