Agenda législative de l’administration Trump sur l’IA : entre préemption et lacunes

A partially completed jigsaw puzzle with a missing center piece

Agenda législatif de l’administration Trump sur l’IA : Appels à la préemption tout en laissant des lacunes

Le vendredi dernier, l’administration Trump a publié son très attendu cadre national de politique pour l’intelligence artificielle (le « Cadre »), dévoilant ses points de vue sur la manière dont l’IA devrait être régulée – ou dérégulée. Le cadre, prévisualisé par l’ordre exécutif de la Maison Blanche sur l’IA de décembre 2025, appelle à une loi fédérale de préemption qui se concentrerait sur la sécurité en ligne des enfants, équilibrant les droits de propriété intellectuelle avec le développement de l’IA, supprimant les obstacles à l’innovation et renforçant la culture de l’IA dans la main-d’œuvre américaine. Il demande au Congrès de ne pas créer « de nouvel organisme fédéral de réglementation de l’IA ».

Analyse du Cadre

Présenté comme un « cadre législatif national complet », le cadre devra être adopté dans une législation détaillée. Ses dispositions sur la préemption fédérale de la régulation de l’IA au niveau des États sont sans conteste les plus importantes et les plus controversées. L’administration a déclaré dans un communiqué de presse : « Il est important que ce cadre ne puisse réussir que s’il est appliqué uniformément à travers les États-Unis. Un patchwork de lois étatiques conflictuelles nuirait à l’innovation américaine et à notre capacité à diriger dans la course mondiale à l’IA. »

L’administration appelle le Congrès à préempter les lois étatiques sur l’IA qui « imposent des charges excessives », les remplaçant par une norme nationale unique. Le cadre assouplit cela en laissant certaines zones où les États conserveraient leur autorité : pouvoirs policiers traditionnels pour faire respecter des lois d’applicabilité générale, lois de zonage régissant l’emplacement des centres de données, et exigences régissant l’utilisation propre des États de l’IA dans les marchés publics, l’application de la loi et l’éducation publique.

Questions d’interprétation

Cependant, le langage de préemption va très loin en affirmant que les États ne devraient pas être autorisés à réguler le développement de l’IA et ne devraient pas pénaliser les développeurs d’IA pour la conduite illégale de tiers impliquant leurs modèles. Il stipule également que les États ne devraient pas imposer de charges excessives sur l’utilisation de l’IA pour des activités qui seraient légales si elles étaient effectuées sans IA, prétendant empêcher les États d’imposer des exigences spécifiques à l’IA sur les applications déployées.

Ce langage soulèvera inévitablement des questions d’interprétation. Par exemple, il n’est pas clair comment les « lois d’applicabilité générale », que le cadre accorderait, diffèrent des lois qui « régulent le développement de l’IA », que le cadre interdirait.

Risques et implications

La viabilité politique du cadre reste une question ouverte. La préemption fédérale de la réglementation de l’IA a été un point de tension au sein du caucus républicain lui-même. Les membres alignés sur la technologie et les libertaires favorisent une approche déréglementaire, tandis que les défenseurs des droits des États et les membres représentant des districts avec des initiatives d’IA au niveau des États ont résisté à céder du terrain à Washington. L’année dernière, l’administration a échoué à inclure la préemption de l’IA même dans son projet de loi de réconciliation budgétaire à l’abri du filibuster, soulignant ces divisions.

De plus, les États n’attendent pas. Plus de 100 projets de loi sont en attente concernant les chatbots IA seuls, et des dizaines d’autres traitent de la gouvernance, de la sécurité et des applications spécifiques à l’industrie de l’IA. Les dispositifs réglementaires au niveau des États prennent de l’ampleur et deviendront de plus en plus difficiles à inverser. Non seulement les « États bleus », mais également des « États rouges » ont déjà adopté des législations significatives liées à l’IA, et d’autres États sont prêts à suivre.

Questions politiques non abordées

En plus des sujets abordés dans le cadre, certaines questions centrales de politique sur l’IA ne sont même pas mentionnées. Par exemple, le cadre ne traite pas de la sécurité nationale, de la cybersécurité, de la gouvernance de l’IA ou de l’IA à haut risque. Quelles que soient les positions réglementaires ou anti-réglementaires, les décideurs du monde entier s’accordent à dire que ces questions présentent des vecteurs de risque critiques pour l’IA.

Conclusion

Dans l’ensemble, le cadre est mieux compris comme une déclaration de principes plutôt qu’un plan législatif détaillé. Il signale clairement la préférence de l’administration pour une réglementation légère et pro-innovation au niveau fédéral, avec l’industrie de l’IA fixant largement le rythme par l’auto-réglementation et les normes sectorielles. Si cette approche sera suffisante pour traiter les préjudices réels que l’IA cause déjà, reste une question que le cadre évite largement. Le travail difficile de traduire ces principes en législation capable de rassembler une majorité au Congrès vient à peine de commencer.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...