Agenda législatif de l’administration Trump sur l’IA : Appels à la préemption tout en laissant des lacunes
Le vendredi dernier, l’administration Trump a publié son très attendu cadre national de politique pour l’intelligence artificielle (le « Cadre »), dévoilant ses points de vue sur la manière dont l’IA devrait être régulée – ou dérégulée. Le cadre, prévisualisé par l’ordre exécutif de la Maison Blanche sur l’IA de décembre 2025, appelle à une loi fédérale de préemption qui se concentrerait sur la sécurité en ligne des enfants, équilibrant les droits de propriété intellectuelle avec le développement de l’IA, supprimant les obstacles à l’innovation et renforçant la culture de l’IA dans la main-d’œuvre américaine. Il demande au Congrès de ne pas créer « de nouvel organisme fédéral de réglementation de l’IA ».
Analyse du Cadre
Présenté comme un « cadre législatif national complet », le cadre devra être adopté dans une législation détaillée. Ses dispositions sur la préemption fédérale de la régulation de l’IA au niveau des États sont sans conteste les plus importantes et les plus controversées. L’administration a déclaré dans un communiqué de presse : « Il est important que ce cadre ne puisse réussir que s’il est appliqué uniformément à travers les États-Unis. Un patchwork de lois étatiques conflictuelles nuirait à l’innovation américaine et à notre capacité à diriger dans la course mondiale à l’IA. »
L’administration appelle le Congrès à préempter les lois étatiques sur l’IA qui « imposent des charges excessives », les remplaçant par une norme nationale unique. Le cadre assouplit cela en laissant certaines zones où les États conserveraient leur autorité : pouvoirs policiers traditionnels pour faire respecter des lois d’applicabilité générale, lois de zonage régissant l’emplacement des centres de données, et exigences régissant l’utilisation propre des États de l’IA dans les marchés publics, l’application de la loi et l’éducation publique.
Questions d’interprétation
Cependant, le langage de préemption va très loin en affirmant que les États ne devraient pas être autorisés à réguler le développement de l’IA et ne devraient pas pénaliser les développeurs d’IA pour la conduite illégale de tiers impliquant leurs modèles. Il stipule également que les États ne devraient pas imposer de charges excessives sur l’utilisation de l’IA pour des activités qui seraient légales si elles étaient effectuées sans IA, prétendant empêcher les États d’imposer des exigences spécifiques à l’IA sur les applications déployées.
Ce langage soulèvera inévitablement des questions d’interprétation. Par exemple, il n’est pas clair comment les « lois d’applicabilité générale », que le cadre accorderait, diffèrent des lois qui « régulent le développement de l’IA », que le cadre interdirait.
Risques et implications
La viabilité politique du cadre reste une question ouverte. La préemption fédérale de la réglementation de l’IA a été un point de tension au sein du caucus républicain lui-même. Les membres alignés sur la technologie et les libertaires favorisent une approche déréglementaire, tandis que les défenseurs des droits des États et les membres représentant des districts avec des initiatives d’IA au niveau des États ont résisté à céder du terrain à Washington. L’année dernière, l’administration a échoué à inclure la préemption de l’IA même dans son projet de loi de réconciliation budgétaire à l’abri du filibuster, soulignant ces divisions.
De plus, les États n’attendent pas. Plus de 100 projets de loi sont en attente concernant les chatbots IA seuls, et des dizaines d’autres traitent de la gouvernance, de la sécurité et des applications spécifiques à l’industrie de l’IA. Les dispositifs réglementaires au niveau des États prennent de l’ampleur et deviendront de plus en plus difficiles à inverser. Non seulement les « États bleus », mais également des « États rouges » ont déjà adopté des législations significatives liées à l’IA, et d’autres États sont prêts à suivre.
Questions politiques non abordées
En plus des sujets abordés dans le cadre, certaines questions centrales de politique sur l’IA ne sont même pas mentionnées. Par exemple, le cadre ne traite pas de la sécurité nationale, de la cybersécurité, de la gouvernance de l’IA ou de l’IA à haut risque. Quelles que soient les positions réglementaires ou anti-réglementaires, les décideurs du monde entier s’accordent à dire que ces questions présentent des vecteurs de risque critiques pour l’IA.
Conclusion
Dans l’ensemble, le cadre est mieux compris comme une déclaration de principes plutôt qu’un plan législatif détaillé. Il signale clairement la préférence de l’administration pour une réglementation légère et pro-innovation au niveau fédéral, avec l’industrie de l’IA fixant largement le rythme par l’auto-réglementation et les normes sectorielles. Si cette approche sera suffisante pour traiter les préjudices réels que l’IA cause déjà, reste une question que le cadre évite largement. Le travail difficile de traduire ces principes en législation capable de rassembler une majorité au Congrès vient à peine de commencer.