La Gouvernance de l’IA Nécessite le Fédéralisme, Pas un Moratoire Imposé par le Fédéral
Le 22 mai, la Chambre des représentants des États-Unis a adopté une proposition de budget incluant un moratoire de dix ans sur la réglementation de l’IA par les États et les collectivités locales. Cette proposition vise à annuler des dizaines de lois étatiques existantes sur l’IA et à empêcher les États d’en adopter de nouvelles. Le Congrès devrait rejeter le proposé « moratoire sur la préemption de l’IA ». C’est une mauvaise politique et probablement inconstitutionnelle en vertu du Dixième Amendement.
Les partisans du moratoire pointent du doigt le patchwork fragmenté des lois étatiques sur l’IA comme justification, affirmant que la préemption de la réglementation étatique stimulera l’innovation et aidera les États-Unis à surpasser la Chine. Mais cet argument repose sur une fausse dichotomie entre réglementation et innovation. La réglementation peut stimuler l’innovation en établissant des règles claires, en construisant la confiance du public et en encourageant l’adoption.
Si les États-Unis souhaitent être à la tête de l’IA, ils doivent le faire en respectant leurs valeurs démocratiques et en construisant des systèmes de confiance, et non en marginalisant les institutions les mieux placées pour gouverner de manière responsable.
Qui Décide de la Réglementation de l’IA ?
Le pivot vers la préemption transforme les questions de première importance sur la réglementation de l’IA en questions de seconde importance sur qui décide. Les enjeux sont élevés : celui qui décide de la réglementation de l’IA déterminera le contenu, la portée et le calendrier des politiques qui émergeront.
Le Congrès a clairement le pouvoir de réglementer l’IA. Mais pour que le Congrès dise, en effet, « nous choisissons de ne pas réglementer, et nous ne permettrons pas aux États non plus », est une assertion inhabituelle – et probablement inconstitutionnelle – du pouvoir national.
Le Dixième Amendement réserve aux États tous les pouvoirs non délégués au gouvernement fédéral. La doctrine anti-commandeering protège cet équilibre constitutionnel en interdisant au Congrès de commander aux gouvernements des États de promulguer ou de s’abstenir de promulguer des lois.
Un Coup Porté au Fédéralisme
Au-delà des problèmes constitutionnels, le moratoire proposé met en péril le discours démocratique sur l’IA. Le fédéralisme ne sert pas seulement à protéger la souveraineté des États, mais aussi à favoriser la représentation démocratique et l’expérimentation politique. Étant donné les incertitudes profondes concernant les impacts de l’IA, la capacité des États à tester des approches réglementaires sans engager l’ensemble de la nation procure des avantages cruciaux.
Ces expériences au niveau des États génèrent des données empiriques vitales sur ce qui fonctionne, ce qui échoue et ce qui nécessite des ajustements. La réglementation étatique est souvent une solution de compromis qui reflète des intérêts multiples et concurrents.
Le moratoire proposé annihilerait les capacités des États à protéger les citoyens dans des domaines tels que la protection des consommateurs, la santé et la sécurité publiques, les droits civils, l’éducation, l’application de la loi, le travail et l’emploi.
Construire une Gouvernance de l’IA Plus Intelligente
Bien que le fédéralisme ne soit pas sans inconvénients, il offre ce qu’un système entièrement centralisé ne peut pas : la capacité de s’engager dans l’innovation politique, la participation politique généralisée et l’adaptation itérative. Toutes sont essentielles pour une gouvernance efficace de l’IA. Le moratoire proposé est antithétique à ces valeurs.
Au lieu de fermer les États, le Congrès peut parvenir à une cohésion réglementaire de manière à respecter les limites constitutionnelles et à exploiter le potentiel positif des États.
Si les États-Unis veulent être à la tête de l’IA, ils doivent le faire d’une manière qui reflète leurs engagements constitutionnels et leurs idéaux politiques, non en les abandonnant. Le véritable progrès en matière d’IA ne provient pas de la paralysie réglementaire, mais de la construction de systèmes d’IA que les gens peuvent faire confiance.