Les Républicains abandonnent le blocage des lois étatiques sur l’IA ordonné par Trump dans le projet de loi de défense
Un effort soutenu par Donald Trump pour inclure une mesure fédérale interdisant aux États d’adopter des lois sur l’IA pendant une décennie dans la Loi d’autorisation de la défense nationale (NDAA) a échoué. Le leader de la majorité à la Chambre, Steve Scalise (R-La.), a déclaré que certains Républicains “cherchent d’autres moyens” pour faire passer cette mesure.
Trump a exercé des pressions pour bloquer les lois étatiques sur l’IA, qu’il considère comme un frein à l’innovation. Cependant, les Républicains n’ont pas réussi à s’unir derrière sa demande, votant contre une mesure similaire dans un projet de loi budgétaire précédent.
Opposition républicaine
Des figures comme Marjorie Taylor Greene (R-Ga.), Sarah Huckabee Sanders et Ron DeSantis se sont opposées à cette mesure, reconnaissant l’importance de permettre aux États de réguler rapidement les risques liés à l’IA.
Scalise a indiqué que l’effort pour bloquer les lois étatiques sur l’IA n’est pas terminé, mais que les Républicains ont cédé à la pression concernant son inclusion dans le projet de loi de défense, considérant que ce n’était “pas le meilleur endroit” pour cette mesure.
Une réaction bipartisane
Un groupe bipartite, Americans for Responsible Innovation (ARI), a salué le retrait de la mesure, soulignant qu’il s’agissait d’une réponse à une coalition nationale de législateurs, de parents et d’autres défenseurs publics. ARI a déclaré que les Américains veulent des garanties protégeant les enfants et les familles, et non une zone sans règles pour les grandes entreprises technologiques.
Un conflit de 150 millions de dollars
Le débat sur la régulation de l’IA a engendré un conflit de 150 millions de dollars entre deux groupes : ARI, qui soutient des lois sur l’IA à l’échelle des États, et Leading the Future (LTF), qui préfère un cadre fédéral. Les priorités d’ARI incluent la protection des enfants contre les modèles d’IA dangereux et la prévention des menaces à la sécurité nationale.
Le projet de loi RAISE de l’État de New York, qui impose des exigences de divulgation de risques pour les grandes entreprises technologiques, attend toujours la signature du gouverneur. Si elle est adoptée, cela obligera les entreprises comme Google et OpenAI à se soumettre à des évaluations de sécurité.
Les défis pour l’avenir
Les efforts pour bloquer les réglementations étatiques sur l’IA continuent d’être une source de tension au sein du Parti Républicain, alors que des voix comme celle de Alex Bores, auteur de la loi RAISE, plaident en faveur d’une régulation qui protège le public tout en encourageant l’innovation.
Alors que le temps presse pour la signature du projet de loi, la pression monte pour que des solutions soient trouvées afin d’éviter une réglementation trop restrictive qui pourrait nuire à la compétitivité des États-Unis dans le domaine de l’IA.