Le cadre politique fédéral de l’IA de Trump vise à contrecarrer les lois des États
La Maison Blanche tente de faire quelque chose que Washington réussit rarement : prendre le contrôle d’une technologie en évolution rapide avant qu’une vague de lois sur l’IA des États ne se transforme en un système réglementaire irréversible.
L’administration du président américain a récemment publié son Cadre de politique nationale pour l’intelligence artificielle : Recommandations législatives, un document qui ressemble moins à des plans de sécurité pour l’IA que les États adoptent de plus en plus et plus à un manuel pour affirmer le contrôle fédéral sur la gouvernance de l’IA.
Une tentative de bloquer les lois fragmentées des États
Au cœur du cadre de la Maison Blanche se trouve la préemption fédérale, le mécanisme juridique qui permettrait au Congrès de remplacer les lois des États sur l’IA et d’établir une norme nationale unique. Les États avancent déjà, rédigeant et adoptant leurs propres lois sur l’IA en l’absence d’action fédérale. Plus cela dure, plus ces règles se solidifient en un système réglementaire fragmenté difficile à défaire.
Une stratégie adaptée à un Congrès bloqué
Le Congrès débat depuis des années de la réglementation de l’IA sans produire de cadre complet. La Maison Blanche tente de briser ce blocage en associant sa proposition à des mesures de sécurité en ligne pour les enfants, l’un des rares domaines où un accord bipartite est encore possible.
Le cadre organise ses propositions autour de ce qu’il appelle les « 4 C » : enfants, créateurs, conservateurs et communautés. Le premier pilier de ce cadre stipule que « les services et plateformes d’IA doivent prendre des mesures pour protéger les enfants, tout en habilitant les parents à contrôler l’environnement numérique et l’éducation de leurs enfants ».
Déréglementation et conséquences
Tout au long du document de stratégie, l’administration souligne que la politique de l’IA devrait être « le moins contraignante possible », favorisant une approche légère en matière de réglementation. Un des piliers de la stratégie indique que « les États-Unis doivent diriger le monde en matière d’IA en supprimant les obstacles à l’innovation ».
La proposition de Blackburn s’oriente vers un système où la responsabilité joue un rôle central, ouvrant la voie à des recours juridiques contre les développeurs et les plateformes d’IA en cas de préjudice.
La stratégie du Premier Amendement
L’un des éléments les plus conséquents du cadre est son accent sur la protection des résultats de l’IA en tant que forme de discours. L’administration suggère que certains types de réglementation, en particulier ceux qui nécessiteraient de modifier ou de contraindre les résultats, pourraient soulever des préoccupations au regard du Premier Amendement.
Ces affirmations reflètent un mouvement stratégique visant à ancrer la politique de l’IA dans la doctrine constitutionnelle, ce qui pourrait limiter considérablement la portée de la réglementation future, notamment en matière de désinformation et de modération de contenu.
Conclusion
Pour toute son ambition, le cadre dépend d’une seule institution, le Congrès, qui est jusqu’à présent divisé et lent à agir face à la rapidité des technologies de l’IA. Les progressistes et les démocrates au Congrès s’opposent à la création d’une préemption fédérale ou d’un moratoire sur la législation des États sur l’IA, plaidant pour que toute législation fédérale se concentre sur l’établissement d’un solide socle de protections.
Cette tension entre un cadre fédéral qui remplace les États et celui qui s’appuie sur eux devrait définir la prochaine phase du combat politique sur l’IA.