La Maison Blanche publie des recommandations législatives sur l’IA
Le 20 mars 2026, la Maison Blanche a dévoilé son Cadre Politique National pour l’Intelligence Artificielle, fournissant une feuille de route sur les recommandations législatives et exhortant le Congrès à agir. Ce cadre propose la création d’une norme fédérale unifiée pour réduire les frictions réglementaires, promouvoir l’innovation de l’IA et développer une main-d’œuvre prête à l’IA, tout en garantissant la protection des enfants, des consommateurs et des droits de propriété intellectuelle.
Les sept piliers du cadre
Les recommandations couvrent sept piliers principaux :
- 1. Protéger les enfants – Appelle à des exigences de vérification d’âge, des outils de contrôle parental, des limites sur la collecte de données des mineurs, et des fonctionnalités pour réduire les risques d’exploitation et d’automutilation sur les plateformes d’IA.
- 2. Protéger les communautés – Recommande d’augmenter les efforts des forces de l’ordre pour lutter contre la fraude liée à l’IA, de limiter les impacts sur les coûts énergétiques, de rationaliser l’autorisation fédérale pour les infrastructures d’IA, de fournir des ressources d’IA aux petites entreprises, et de s’assurer que les agences de sécurité nationale disposent de la capacité technique suffisante pour évaluer les capacités et les risques des modèles d’IA de pointe.
- 3. Respecter les droits de propriété intellectuelle – Affirme que l’entraînement de l’IA sur du matériel protégé par des droits d’auteur ne viole pas la loi sur le droit d’auteur, mais renvoie la résolution finale de cette question aux tribunaux. Encourage l’exploration de cadres de licence volontaires pour les titulaires de droits et la protection contre les répliques numériques générées par l’IA non autorisées.
- 4. Encourager la liberté d’expression – Urge à prévenir la coercition gouvernementale des fournisseurs d’IA pour censurer les expressions légales et la capacité des consommateurs à demander réparation contre les efforts de censure fédérale.
- 5. Promouvoir l’innovation et la domination de l’IA – Propose des bacs à sable réglementaires pour les applications d’IA, des ensembles de données fédérales accessibles pour l’entraînement des modèles d’IA, et recommande qu’aucun nouveau corps réglementaire fédéral pour l’IA ne soit créé, s’appuyant plutôt sur les agences existantes et les normes dirigées par l’industrie.
- 6. Autonomiser la main-d’œuvre – Encourage les programmes de formation et de soutien à l’éducation en IA pour développer une main-d’œuvre prête pour l’IA.
- 7. Préemption des lois d’État – Cherche à établir une norme nationale uniforme qui préempte les lois d’IA des États potentiellement trop contraignantes, tout en préservant les pouvoirs traditionnels de police des États, les protections des consommateurs et l’autorité de zonage.
Les lacunes restantes
Le cadre ne peut pas couvrir tous les aspects potentiels des questions relatives à l’IA et reste largement silencieux sur l’application réglementaire et un régime complet de protection des données (bien qu’il aborde les données et la vie privée des enfants). Il ne propose pas de pénalités spécifiques, de mécanismes de conformité ou de structures de supervision pour les entreprises développant ou déployant l’IA. De plus, il ne traite pas de la discrimination générée par l’IA, de la responsabilité algorithmique, et de la manière dont les agences existantes devraient coordonner l’application de la loi, le cas échéant.
Préemption nécessaire pour éviter l’incohérence
Le cadre suit les principes de l’Ordre Exécutif sur l’Assurance d’un Cadre Politique National pour l’Intelligence Artificielle, qui a invoqué l’autorité exécutive existante et les principes de préemption de la clause de commerce pour contrecarrer la réglementation de l’IA par les États. L’appel à la préemption va plus loin, notant que le développement de l’IA est un phénomène intrinsèquement interétatique avec des implications clés pour la politique étrangère et la sécurité nationale. Cette pression pour une action du Congrès admet implicitement que l’autorité exécutive seule peut ne pas être suffisante. Tant que le Congrès n’agit pas, les États conservent la possibilité de poursuivre leurs propres régimes d’IA, et le paysage juridique de l’IA restera en évolution.
Conclusion
Le cadre constitue une tentative sérieuse, bien que incomplète, d’apporter de la cohérence à un paysage d’application qui a été improvisé. Les sept piliers abordent divers points de pression, y compris la préemption, les droits de propriété intellectuelle, la sécurité des enfants, et la censure, mais l’absence de toute architecture d’application signifie que même si le Congrès agit, les questions de mise en œuvre retomberont sur les agences et les tribunaux. En publiant ce cadre, l’exécutif peut implicitement admettre qu’il ne peut pas atteindre ses objectifs seul. Le Congrès a reçu une feuille de route, mais sa capacité à adopter une législation fédérale complète reste une autre question. Les entreprises utilisant l’IA ne devraient pas attendre que le Congrès agisse avant d’évaluer leur exposition.