La Réglementation de l’IA aux États-Unis en 2025
La politique américaine en matière d’intelligence artificielle (IA) en 2025 sera presque certainement dominée par des propositions législatives au niveau des États, plutôt que par des initiatives fédérales. Le Congrès sera occupé à confirmer la nouvelle administration Trump, à établir un budget, à gérer l’expiration des réductions d’impôts précédentes et à aborder des sujets lourds comme la réforme de l’immigration. Par conséquent, les États seront le véritable terrain d’action pour ce sujet vital.
Propositions de Politique IA en 2024
En 2024, des centaines de propositions de politique IA ont été introduites par les législateurs des États. Cependant, seule une petite fraction a été adoptée, la majorité étant des mesures relativement anodines, telles que la création de protections contre les deepfakes malveillants ou l’initiation de comités d’État pour étudier différents aspects de la politique IA. Peu d’entre elles constituaient de nouvelles réglementations substantielles, à l’exception d’une loi sur la transparence de l’IA en Californie et d’une loi basée sur les droits civils au Colorado.
Attentes pour 2025
Pour l’année à venir, attendez-vous à voir beaucoup plus de propositions de réglementation de l’IA majeures et préventives. Celles-ci ressembleront davantage aux réglementations de l’Union Européenne qu’aux propositions plus modestes qui ont dominé en 2024.
Des rumeurs circulent déjà concernant des législateurs de New York travaillant sur des propositions similaires à la SB 1047 en Californie, qui aurait imposé une responsabilité pour négligence aux développeurs de modèles IA avancés en cas de mauvaise utilisation de leurs modèles. Pendant ce temps, l’auteur de la loi, le sénateur d’État Scott Wiener, a indiqué qu’il pourrait tenter à nouveau sa chance lors de la prochaine session législative californienne.
Modèles de Réglementation
Un nombre important de propositions de réglementation IA pourraient imiter la loi basée sur les droits civils du Colorado. Des lois similaires ont échoué dans le Connecticut et en Virginie l’année dernière, et il ne serait pas surprenant de les voir réintroduites. Des États comme le Texas ont également introduit des modèles, comme le Texas Responsible AI Governance Act (TRAIGA), qui est décrit comme un modèle de politique IA « d’État rouge ».
Ces lois diffèrent par certains détails importants, mais partagent un cadre général similaire. Les développeurs de modèles ou de systèmes IA qui pourraient être utilisés dans des décisions « conséquentielles » (dans des secteurs comme les services financiers, la santé, l’assurance, etc.) devront rédiger de longs évaluations d’impact algorithmique et, souvent, mettre en œuvre des cadres de gestion des risques.
Impact sur l’Adoption de l’IA
Les exigences imposées par ces projets de loi pourraient décourager l’adoption de l’IA par les entreprises concernées et même diminuer le développement de l’IA avancée aux États-Unis. Ces lois couvrent une large gamme d’activités commerciales, et des entrepreneurs fournissant des services simples pourraient être tenus de rédiger des évaluations d’impact algorithmique avant d’utiliser un modèle de langage pour des tâches aussi simples que la rédaction de factures.
La loi du Colorado, SB 205, bien qu’elle n’entrera en vigueur qu’en 2026, a suscité des réserves quant à son « régime de conformité complexe ».
Conclusion
La manière dont l’Amérique aborde la réglementation de l’IA pourrait mener à un régime réglementaire pire que celui de l’Union Européenne, avec tous les ambiguïtés de l’AI Act de l’UE, mais avec un patchwork de règles différentes à travers les juridictions.
Il incombera au gouvernement fédéral de contrecarrer ces projets de loi défectueux avec une approche de leur propre cru. La manière dont cela se déroulera pourrait être la question de politique IA la plus importante dans les années à venir.