AI : Quelles Régulations Après la Fin du Moratoire ?

A road sign indicating the direction and choices society faces regarding the future of AI.

No Moratoire sur l’IA pour le Moment, mais Quelles Sont les Prochaines Étapes ?

Le projet de loi de réconciliation budgétaire du président Donald Trump (H.R.1), surnommé le One Big Beautiful Bill Act (le Projet de loi), a failli instaurer une pause de près de dix ans sur la réglementation de l’IA par les gouvernements locaux et étatiques aux États-Unis (le Moratoire). Cependant, cette disposition controversée a été retirée par le Sénat avant que le Projet de loi ne soit signé en loi le 4 juillet 2025. Avec la suppression du Moratoire, les États et les gouvernements locaux restent indépendants dans leurs efforts pour établir des garde-fous pour l’IA, du moins pour l’instant. Toutefois, la saga du Moratoire échoué fournit des informations clés sur ce à quoi s’attendre à l’avenir.

Contexte du One Big Beautiful Bill

Présenté par l’administration Trump comme « une opportunité générationnelle de restaurer la force économique de l’Amérique », le Projet de loi a été introduit dans le cadre du processus de réconciliation budgétaire du Congrès. Il combine diverses réductions d’impôts avec des réformes de Medicaid, des prestations de SNAP, du financement de l’éducation, et plus encore. La première version du Projet de loi contenait le Moratoire dans la section « Initiative de Modernisation de l’Intelligence Artificielle et de la Technologie de l’Information », qui, sous certaines exceptions, aurait établi une interdiction de dix ans sur l’application des restrictions ou réglementations étatiques et locales concernant les modèles d’IA, les systèmes d’IA et la prise de décision automatisée. Ce Moratoire est en partie né d’un effort du Comité de l’énergie et du commerce de la Chambre pour prévenir l’émergence de lois disparates sur l’IA à l’échelle des États et pour éliminer les obstacles à l’innovation, ce qui est conforme à la position de l’administration sur l’IA, y compris les ordonnances exécutives liées à l’IA du président Trump.

Le 22 mai, le Projet de loi, avec sa disposition de Moratoire, a été adopté à la Chambre des représentants par un vote serré de 215-214. Une partie du processus de réconciliation du Sénat implique la règle Byrd, qui est un contrôle contre les dispositions extrinsèques dans les projets de loi de réconciliation budgétaire. Pour contourner cette règle, le Sénat a révisé le Moratoire afin de l’intégrer dans le budget en tentant de lier la conformité au Moratoire à certains financements fédéraux.

D’autres révisions ont été faites lors des négociations au Sénat, alors que des opposants au Moratoire de tous bords politiques cherchaient des concessions sur les termes du Moratoire, y compris des tentatives de négociations pour élargir les exceptions, invoquant des préoccupations concernant la protection des enfants et les droits à la publicité. De plus, le Moratoire révisé a été rebaptisé « pause temporaire » et a été réduit d’une période de 10 ans à 5 ans. Finalement, un vote sans ambiguïté de 99-1 a supprimé le Moratoire du Projet de loi. Ainsi, lorsque le président Trump a signé le Projet de loi le 4 juillet, la version finale n’incluait aucune restriction sur l’application des lois sur l’IA au niveau des États ou des localités.

Quelles Sont les Prochaines Étapes ?

Bien que le Moratoire ait été finalement retiré du Projet de loi, cela ne doit pas être interprété comme un manque d’intérêt législatif pour réguler ou déréguler l’IA. Le processus législatif entourant le Moratoire – y compris les opinions émergeant des deux côtés de l’échiquier politique – fournit des informations précieuses sur les motivations et les obstacles au développement d’une politique cohérente sur l’IA en Amérique. Des discours ont émergé tout au long du processus, impliquant 40 procureurs généraux d’États et 17 gouverneurs républicains. En plus des négociations et des tentatives d’élargir les exceptions, un certain nombre de procureurs généraux à travers le pays se sont opposés au Moratoire, citant des préoccupations concernant la protection des consommateurs et des citoyens (et le désir de maintenir l’application des lois étatiques).

À l’opposé, les partisans du Moratoire ont critiqué l’incohérence de l’émergence d’un ensemble disparate de lois sur l’IA, notant les difficultés et les coûts supplémentaires pour les entreprises devant se conformer à un cadre qui varie d’État en État. L’argument soutient que cette approche disparate pourrait entraver les efforts commerciaux d’innovation, reflétant les préoccupations de l’administration Trump selon lesquelles la réglementation de l’IA étouffe l’innovation. Ce n’est pas une nouvelle préoccupation, comme nous l’avons vu dans des arguments similaires formulés (et perdus) alors que le patchwork des lois sur la vie privée des consommateurs se développait à travers les États-Unis. Dans ce cas, le Congrès n’a pas été (et n’est toujours pas) capable de s’accorder sur une législation complète sur la vie privée et la préemption des lois des États. Il reste à voir si le sujet de l’IA présente un terreau plus fertile pour un compromis fédéral sur ces sujets.

Quoi qu’il en soit, nous nous attendons à ce que les efforts en faveur du Moratoire se poursuivent et soient débattus au Congrès. Il reste à voir si les préoccupations concernant la protection des consommateurs ou la flexibilité et l’innovation des entreprises l’emporteront dans ces conversations. Mais une chose est sûre : il existe un intérêt législatif fédéral pour déréguler l’IA.

Qu’est-ce Que Cela Signifie pour les Entreprises ?

Au moment de cette publication, des centaines de projets de loi liés à l’IA ont été introduits dans les 50 États, et avec la suppression du Moratoire pour un certain temps, cela ne devrait pas ralentir de sitôt. Les entreprises doivent prêter une attention particulière aux États dotés d’une législation robuste sur l’IA, tels que la Californie, le Colorado, l’Utah et le Texas.

Au minimum, les lois des États se concentrent sur les exigences de gouvernance de l’IA, en mettant l’accent sur les outils d’IA utilisés dans des cas d’utilisation à haut risque (par exemple, l’emploi, le logement, la banque et les soins de santé). Les développeurs et les déployeurs d’IA dans ces domaines en particulier devraient commencer à affiner leurs efforts de conformité s’ils ne l’ont pas déjà fait, car plusieurs mesures législatives clés sur l’IA doivent entrer en vigueur dans l’année à venir.

Dans l’ensemble, les entreprises cherchant à tirer parti de l’IA devraient mettre en œuvre des politiques d’IA qui abordent : (1) la licence d’entrée et de sortie de l’IA, y compris la diligence des fournisseurs ; (2) les représentations et assurances minimales des développeurs/licencieurs concernant le logiciel d’IA et les données d’apprentissage (y compris la transparence, la discrimination, etc.) ; (3) le transfert de responsabilité ; (4) les processus internes pour examiner et approuver les produits et cas d’utilisation d’IA ; (5) la détermination et la documentation des utilisations autorisées par les employés ; et (6) une mission/approche organisationnelle générale pour guider l’utilisation de l’IA au sein de l’entreprise. Étant donné le potentiel de responsabilité et l’explosion continue de l’IA dans les offres de produits et de services en tant que « différenciateur de marché », toutes les entreprises, même en tant que déployeurs ou clients, doivent rester informées des législations en cours.

Si vous avez des questions concernant la réglementation de l’IA ou votre programme de gouvernance de l’IA, il est conseillé de consulter un avocat spécialisé en intelligence artificielle.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...