AI : Quelles Régulations Après la Fin du Moratoire ?

A road sign indicating the direction and choices society faces regarding the future of AI.

No Moratoire sur l’IA pour le Moment, mais Quelles Sont les Prochaines Étapes ?

Le projet de loi de réconciliation budgétaire du président Donald Trump (H.R.1), surnommé le One Big Beautiful Bill Act (le Projet de loi), a failli instaurer une pause de près de dix ans sur la réglementation de l’IA par les gouvernements locaux et étatiques aux États-Unis (le Moratoire). Cependant, cette disposition controversée a été retirée par le Sénat avant que le Projet de loi ne soit signé en loi le 4 juillet 2025. Avec la suppression du Moratoire, les États et les gouvernements locaux restent indépendants dans leurs efforts pour établir des garde-fous pour l’IA, du moins pour l’instant. Toutefois, la saga du Moratoire échoué fournit des informations clés sur ce à quoi s’attendre à l’avenir.

Contexte du One Big Beautiful Bill

Présenté par l’administration Trump comme « une opportunité générationnelle de restaurer la force économique de l’Amérique », le Projet de loi a été introduit dans le cadre du processus de réconciliation budgétaire du Congrès. Il combine diverses réductions d’impôts avec des réformes de Medicaid, des prestations de SNAP, du financement de l’éducation, et plus encore. La première version du Projet de loi contenait le Moratoire dans la section « Initiative de Modernisation de l’Intelligence Artificielle et de la Technologie de l’Information », qui, sous certaines exceptions, aurait établi une interdiction de dix ans sur l’application des restrictions ou réglementations étatiques et locales concernant les modèles d’IA, les systèmes d’IA et la prise de décision automatisée. Ce Moratoire est en partie né d’un effort du Comité de l’énergie et du commerce de la Chambre pour prévenir l’émergence de lois disparates sur l’IA à l’échelle des États et pour éliminer les obstacles à l’innovation, ce qui est conforme à la position de l’administration sur l’IA, y compris les ordonnances exécutives liées à l’IA du président Trump.

Le 22 mai, le Projet de loi, avec sa disposition de Moratoire, a été adopté à la Chambre des représentants par un vote serré de 215-214. Une partie du processus de réconciliation du Sénat implique la règle Byrd, qui est un contrôle contre les dispositions extrinsèques dans les projets de loi de réconciliation budgétaire. Pour contourner cette règle, le Sénat a révisé le Moratoire afin de l’intégrer dans le budget en tentant de lier la conformité au Moratoire à certains financements fédéraux.

D’autres révisions ont été faites lors des négociations au Sénat, alors que des opposants au Moratoire de tous bords politiques cherchaient des concessions sur les termes du Moratoire, y compris des tentatives de négociations pour élargir les exceptions, invoquant des préoccupations concernant la protection des enfants et les droits à la publicité. De plus, le Moratoire révisé a été rebaptisé « pause temporaire » et a été réduit d’une période de 10 ans à 5 ans. Finalement, un vote sans ambiguïté de 99-1 a supprimé le Moratoire du Projet de loi. Ainsi, lorsque le président Trump a signé le Projet de loi le 4 juillet, la version finale n’incluait aucune restriction sur l’application des lois sur l’IA au niveau des États ou des localités.

Quelles Sont les Prochaines Étapes ?

Bien que le Moratoire ait été finalement retiré du Projet de loi, cela ne doit pas être interprété comme un manque d’intérêt législatif pour réguler ou déréguler l’IA. Le processus législatif entourant le Moratoire – y compris les opinions émergeant des deux côtés de l’échiquier politique – fournit des informations précieuses sur les motivations et les obstacles au développement d’une politique cohérente sur l’IA en Amérique. Des discours ont émergé tout au long du processus, impliquant 40 procureurs généraux d’États et 17 gouverneurs républicains. En plus des négociations et des tentatives d’élargir les exceptions, un certain nombre de procureurs généraux à travers le pays se sont opposés au Moratoire, citant des préoccupations concernant la protection des consommateurs et des citoyens (et le désir de maintenir l’application des lois étatiques).

À l’opposé, les partisans du Moratoire ont critiqué l’incohérence de l’émergence d’un ensemble disparate de lois sur l’IA, notant les difficultés et les coûts supplémentaires pour les entreprises devant se conformer à un cadre qui varie d’État en État. L’argument soutient que cette approche disparate pourrait entraver les efforts commerciaux d’innovation, reflétant les préoccupations de l’administration Trump selon lesquelles la réglementation de l’IA étouffe l’innovation. Ce n’est pas une nouvelle préoccupation, comme nous l’avons vu dans des arguments similaires formulés (et perdus) alors que le patchwork des lois sur la vie privée des consommateurs se développait à travers les États-Unis. Dans ce cas, le Congrès n’a pas été (et n’est toujours pas) capable de s’accorder sur une législation complète sur la vie privée et la préemption des lois des États. Il reste à voir si le sujet de l’IA présente un terreau plus fertile pour un compromis fédéral sur ces sujets.

Quoi qu’il en soit, nous nous attendons à ce que les efforts en faveur du Moratoire se poursuivent et soient débattus au Congrès. Il reste à voir si les préoccupations concernant la protection des consommateurs ou la flexibilité et l’innovation des entreprises l’emporteront dans ces conversations. Mais une chose est sûre : il existe un intérêt législatif fédéral pour déréguler l’IA.

Qu’est-ce Que Cela Signifie pour les Entreprises ?

Au moment de cette publication, des centaines de projets de loi liés à l’IA ont été introduits dans les 50 États, et avec la suppression du Moratoire pour un certain temps, cela ne devrait pas ralentir de sitôt. Les entreprises doivent prêter une attention particulière aux États dotés d’une législation robuste sur l’IA, tels que la Californie, le Colorado, l’Utah et le Texas.

Au minimum, les lois des États se concentrent sur les exigences de gouvernance de l’IA, en mettant l’accent sur les outils d’IA utilisés dans des cas d’utilisation à haut risque (par exemple, l’emploi, le logement, la banque et les soins de santé). Les développeurs et les déployeurs d’IA dans ces domaines en particulier devraient commencer à affiner leurs efforts de conformité s’ils ne l’ont pas déjà fait, car plusieurs mesures législatives clés sur l’IA doivent entrer en vigueur dans l’année à venir.

Dans l’ensemble, les entreprises cherchant à tirer parti de l’IA devraient mettre en œuvre des politiques d’IA qui abordent : (1) la licence d’entrée et de sortie de l’IA, y compris la diligence des fournisseurs ; (2) les représentations et assurances minimales des développeurs/licencieurs concernant le logiciel d’IA et les données d’apprentissage (y compris la transparence, la discrimination, etc.) ; (3) le transfert de responsabilité ; (4) les processus internes pour examiner et approuver les produits et cas d’utilisation d’IA ; (5) la détermination et la documentation des utilisations autorisées par les employés ; et (6) une mission/approche organisationnelle générale pour guider l’utilisation de l’IA au sein de l’entreprise. Étant donné le potentiel de responsabilité et l’explosion continue de l’IA dans les offres de produits et de services en tant que « différenciateur de marché », toutes les entreprises, même en tant que déployeurs ou clients, doivent rester informées des législations en cours.

Si vous avez des questions concernant la réglementation de l’IA ou votre programme de gouvernance de l’IA, il est conseillé de consulter un avocat spécialisé en intelligence artificielle.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...