AI : Quelles Régulations Après la Fin du Moratoire ?

A road sign indicating the direction and choices society faces regarding the future of AI.

No Moratoire sur l’IA pour le Moment, mais Quelles Sont les Prochaines Étapes ?

Le projet de loi de réconciliation budgétaire du président Donald Trump (H.R.1), surnommé le One Big Beautiful Bill Act (le Projet de loi), a failli instaurer une pause de près de dix ans sur la réglementation de l’IA par les gouvernements locaux et étatiques aux États-Unis (le Moratoire). Cependant, cette disposition controversée a été retirée par le Sénat avant que le Projet de loi ne soit signé en loi le 4 juillet 2025. Avec la suppression du Moratoire, les États et les gouvernements locaux restent indépendants dans leurs efforts pour établir des garde-fous pour l’IA, du moins pour l’instant. Toutefois, la saga du Moratoire échoué fournit des informations clés sur ce à quoi s’attendre à l’avenir.

Contexte du One Big Beautiful Bill

Présenté par l’administration Trump comme « une opportunité générationnelle de restaurer la force économique de l’Amérique », le Projet de loi a été introduit dans le cadre du processus de réconciliation budgétaire du Congrès. Il combine diverses réductions d’impôts avec des réformes de Medicaid, des prestations de SNAP, du financement de l’éducation, et plus encore. La première version du Projet de loi contenait le Moratoire dans la section « Initiative de Modernisation de l’Intelligence Artificielle et de la Technologie de l’Information », qui, sous certaines exceptions, aurait établi une interdiction de dix ans sur l’application des restrictions ou réglementations étatiques et locales concernant les modèles d’IA, les systèmes d’IA et la prise de décision automatisée. Ce Moratoire est en partie né d’un effort du Comité de l’énergie et du commerce de la Chambre pour prévenir l’émergence de lois disparates sur l’IA à l’échelle des États et pour éliminer les obstacles à l’innovation, ce qui est conforme à la position de l’administration sur l’IA, y compris les ordonnances exécutives liées à l’IA du président Trump.

Le 22 mai, le Projet de loi, avec sa disposition de Moratoire, a été adopté à la Chambre des représentants par un vote serré de 215-214. Une partie du processus de réconciliation du Sénat implique la règle Byrd, qui est un contrôle contre les dispositions extrinsèques dans les projets de loi de réconciliation budgétaire. Pour contourner cette règle, le Sénat a révisé le Moratoire afin de l’intégrer dans le budget en tentant de lier la conformité au Moratoire à certains financements fédéraux.

D’autres révisions ont été faites lors des négociations au Sénat, alors que des opposants au Moratoire de tous bords politiques cherchaient des concessions sur les termes du Moratoire, y compris des tentatives de négociations pour élargir les exceptions, invoquant des préoccupations concernant la protection des enfants et les droits à la publicité. De plus, le Moratoire révisé a été rebaptisé « pause temporaire » et a été réduit d’une période de 10 ans à 5 ans. Finalement, un vote sans ambiguïté de 99-1 a supprimé le Moratoire du Projet de loi. Ainsi, lorsque le président Trump a signé le Projet de loi le 4 juillet, la version finale n’incluait aucune restriction sur l’application des lois sur l’IA au niveau des États ou des localités.

Quelles Sont les Prochaines Étapes ?

Bien que le Moratoire ait été finalement retiré du Projet de loi, cela ne doit pas être interprété comme un manque d’intérêt législatif pour réguler ou déréguler l’IA. Le processus législatif entourant le Moratoire – y compris les opinions émergeant des deux côtés de l’échiquier politique – fournit des informations précieuses sur les motivations et les obstacles au développement d’une politique cohérente sur l’IA en Amérique. Des discours ont émergé tout au long du processus, impliquant 40 procureurs généraux d’États et 17 gouverneurs républicains. En plus des négociations et des tentatives d’élargir les exceptions, un certain nombre de procureurs généraux à travers le pays se sont opposés au Moratoire, citant des préoccupations concernant la protection des consommateurs et des citoyens (et le désir de maintenir l’application des lois étatiques).

À l’opposé, les partisans du Moratoire ont critiqué l’incohérence de l’émergence d’un ensemble disparate de lois sur l’IA, notant les difficultés et les coûts supplémentaires pour les entreprises devant se conformer à un cadre qui varie d’État en État. L’argument soutient que cette approche disparate pourrait entraver les efforts commerciaux d’innovation, reflétant les préoccupations de l’administration Trump selon lesquelles la réglementation de l’IA étouffe l’innovation. Ce n’est pas une nouvelle préoccupation, comme nous l’avons vu dans des arguments similaires formulés (et perdus) alors que le patchwork des lois sur la vie privée des consommateurs se développait à travers les États-Unis. Dans ce cas, le Congrès n’a pas été (et n’est toujours pas) capable de s’accorder sur une législation complète sur la vie privée et la préemption des lois des États. Il reste à voir si le sujet de l’IA présente un terreau plus fertile pour un compromis fédéral sur ces sujets.

Quoi qu’il en soit, nous nous attendons à ce que les efforts en faveur du Moratoire se poursuivent et soient débattus au Congrès. Il reste à voir si les préoccupations concernant la protection des consommateurs ou la flexibilité et l’innovation des entreprises l’emporteront dans ces conversations. Mais une chose est sûre : il existe un intérêt législatif fédéral pour déréguler l’IA.

Qu’est-ce Que Cela Signifie pour les Entreprises ?

Au moment de cette publication, des centaines de projets de loi liés à l’IA ont été introduits dans les 50 États, et avec la suppression du Moratoire pour un certain temps, cela ne devrait pas ralentir de sitôt. Les entreprises doivent prêter une attention particulière aux États dotés d’une législation robuste sur l’IA, tels que la Californie, le Colorado, l’Utah et le Texas.

Au minimum, les lois des États se concentrent sur les exigences de gouvernance de l’IA, en mettant l’accent sur les outils d’IA utilisés dans des cas d’utilisation à haut risque (par exemple, l’emploi, le logement, la banque et les soins de santé). Les développeurs et les déployeurs d’IA dans ces domaines en particulier devraient commencer à affiner leurs efforts de conformité s’ils ne l’ont pas déjà fait, car plusieurs mesures législatives clés sur l’IA doivent entrer en vigueur dans l’année à venir.

Dans l’ensemble, les entreprises cherchant à tirer parti de l’IA devraient mettre en œuvre des politiques d’IA qui abordent : (1) la licence d’entrée et de sortie de l’IA, y compris la diligence des fournisseurs ; (2) les représentations et assurances minimales des développeurs/licencieurs concernant le logiciel d’IA et les données d’apprentissage (y compris la transparence, la discrimination, etc.) ; (3) le transfert de responsabilité ; (4) les processus internes pour examiner et approuver les produits et cas d’utilisation d’IA ; (5) la détermination et la documentation des utilisations autorisées par les employés ; et (6) une mission/approche organisationnelle générale pour guider l’utilisation de l’IA au sein de l’entreprise. Étant donné le potentiel de responsabilité et l’explosion continue de l’IA dans les offres de produits et de services en tant que « différenciateur de marché », toutes les entreprises, même en tant que déployeurs ou clients, doivent rester informées des législations en cours.

Si vous avez des questions concernant la réglementation de l’IA ou votre programme de gouvernance de l’IA, il est conseillé de consulter un avocat spécialisé en intelligence artificielle.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...