Régulations des IA : Les États prennent les devants face à l’inaction du Congrès

A safety helmet illustrating the protective measures needed for safe AI implementation.

Les États avancent sur la régulation de l’IA alors que le Congrès est à la traîne

Ce mois-ci, le Sénat américain a voté pour abolir une disposition controversée dans le vaste paquet fiscal et de dépenses du président Trump, officiellement connu sous le nom de One Big Beautiful Bill Act, qui aurait bloqué les États et les collectivités locales de réglementer l’IA pendant les dix prochaines années. Cette mesure avait suscité un recul bipartite et a provoqué des critiques qui soutenaient qu’elle priverait les États de la capacité de traiter les préjudices causés par la discrimination algorithmique, les abus de surveillance et la fraude alimentée par l’IA.

Le revival de l’action étatique intervient dans un contexte de frustration croissante face au manque d’un cadre fédéral unifié pour l’IA. Bien que la communauté des affaires ait fait pression pour une législation nationale préventive afin d’éviter la fragmentation réglementaire, de nombreux États se considèrent comme des gardiens essentiels en l’absence d’une surveillance congressionnelle rapide. Pendant ce temps, les groupes industriels continuent de faire pression sur Washington pour laisser de la place à l’innovation, notamment dans les secteurs utilisant l’IA pour la détection de fraude et les gains d’efficacité.

Avec l’abrogation du moratoire, plus de 1 000 projets de loi liés à l’IA ont refait surface dans les législations de tous les États, de Porto Rico, des Îles Vierges et de Washington, D.C. Ces mesures couvrent une large gamme de questions, y compris la protection des données biométriques, la transparence algorithmique, et les restrictions sur les outils d’IA utilisés dans le recrutement, la justice pénale et l’éducation. Les législateurs en Californie, dans le Colorado, à New York et au Texas trament des cadres qui imposent des évaluations des risques, mandatent une supervision humaine, et interdisent les applications d’IA jugées discriminatoires ou non sécurisées.

Le rôle des États dans la gouvernance de l’IA

Le gouvernement Trump a tendance à privilégier l’innovation et l’auto-régulation de l’industrie plutôt que l’imposition de politiques fédérales et de mandats législatifs. David Sacks, un investisseur en technologie de l’Internet et président du Conseil des conseillers de Trump sur la science et la technologie, a proposé un plan pour l’IA qui reflète de près ce que l’industrie de l’IA plaide. Pour l’instant, cependant, l’effondrement du moratoire a réaffirmé un modèle décentralisé de gouvernance de l’IA aux États-Unis.

Alors que le Congrès pèse ses prochaines étapes, les États avancent et définissent la manière dont la responsabilité algorithmique et la sûreté de l’IA seront gérées sur le terrain. Cette décentralisation a suscité à la fois de l’enthousiasme et des inquiétudes. Les partisans soutiennent que les États sont mieux placés pour élaborer des lois qui reflètent les valeurs et les besoins locaux.

Les critiques, en revanche, craignent que la complexité croissante d’un paysage réglementaire fragmenté n’impose de lourdes charges de conformité aux entreprises opérant à travers les frontières des États. Les experts juridiques soulignent les exigences superposées ou contradictoires qui pourraient étouffer l’innovation et accroître l’incertitude juridique pour les développeurs.

Principes communs des efforts législatifs

En l’absence d’un cadre national, les assemblées législatives des États continuent de mener la charge. Malgré des différences régionales, de nombreux efforts législatifs partagent des principes communs. La plupart mettent l’accent sur la transparence, la responsabilité et la prévention des préjudices. Les dispositions communes incluent des divulgations obligatoires lorsque l’IA est utilisée dans le recrutement, le crédit, le logement ou la justice pénale; des interdictions ou restrictions sur les applications à haut risque comme la reconnaissance faciale; et des exigences de supervision humaine dans la prise de décision automatisée.

Des États comme la Californie, le Colorado, New York et l’Utah ont également intégré des évaluations des risques et des protocoles d’atténuation des biais dans leurs lois, signalant un consensus croissant sur la nécessité d’une gouvernance éthique de l’IA. Les réglementations californiennes s’appuient sur la California Consumer Privacy Act, introduisant des règles autour des technologies de prise de décision automatisée. La loi sur l’IA du Colorado impose des mesures de protection pour les systèmes d’IA à haut risque affectant l’accès à des services essentiels. New York exige désormais que les agences publiques divulguent leur utilisation d’outils d’IA et mandate des évaluations de biais régulières.

Dans des États comme le Kentucky et le Maryland, les législateurs ciblent l’IA liée à la santé et la protection des données biométriques. Pendant ce temps, des États comme le Texas et le Montana ont décidé de réglementer l’utilisation de l’IA dans les contextes de sécurité publique et de condamnation criminelle.

Les développements à venir au niveau fédéral

Un des développements les plus significatifs attendus dans les mois à venir est le rôle du Comité sénatorial du commerce dans la définition de la surveillance fédérale de l’IA. Un des principaux points d’intérêt est le Senate Bill 1290, le Artificial Intelligence and Critical Technology Workforce Framework Act, présenté par le sénateur Gary Peters (D-MI) avec un soutien bipartite.

Le projet de loi vise à renforcer la main-d’œuvre américaine dans l’IA et d’autres technologies critiques, et charge l’Institut national des normes et de la technologie (NIST) de développer des cadres nationaux pour la main-d’œuvre en IA et les technologies critiques définissant les rôles, les compétences et les connaissances nécessaires pour ces emplois, en s’appuyant sur le cadre NICE existant pour la cybersécurité.

Le cadre NICE établit un lexique commun qui décrit le travail et les travailleurs en cybersécurité, quel que soit l’endroit ou pour qui le travail est effectué.

« Alors que le secteur de l’intelligence artificielle continue de croître et joue un rôle de plus en plus important dans tout, de la santé aux finances en passant par l’agriculture, il est crucial que nous ayons une main-d’œuvre hautement qualifiée prête à stimuler l’innovation et à maintenir les États-Unis à l’avant-garde de cette industrie », a déclaré le sénateur Peters.

Le S.1290 est perçu comme faisant partie d’un effort plus large pour aligner la sécurité nationale, la compétitivité économique et les canaux éducatifs avec la gouvernance de l’IA. Il a le soutien du Information Technology Industry Council, de l’Information Systems Audit and Control Association, et d’Americans for Responsible Innovation.

Le projet de loi devrait bénéficier d’une audience dédiée par le comité du commerce du Sénat dans les semaines à venir. Présidé par le sénateur républicain Ted Cruz, le comité a déjà tenu des audiences sur l’innovation en matière d’IA, la compétitivité et la rationalisation réglementaire.

L’audience attendue sur le S.1290 devrait probablement être couplée à une discussion sur le Center for AI Standards and Innovation (CAISI), connu sous le nom d’Institut de sécurité de l’IA sous l’administration Biden. CAISI a été rebrandé sous le secrétaire au commerce de Trump, Howard Lutnick, et opère désormais comme le « point de contact principal » pour évaluer les systèmes d’IA, établir des normes volontaires et améliorer la coordination avec les agences fédérales et les développeurs privés.

CAISI collabore désormais étroitement avec le NIST pour développer des meilleures pratiques et des cadres d’essai et aider les entreprises technologiques à travailler à travers le processus de normes. Les législateurs envisagent d’élargir l’autorité du CAISI au-delà des directives volontaires pour inclure la rapport d’incidents, l’évaluation des risques et l’autorité d’audit.

Si le S.1290 est adopté, il formaliserait non seulement le rôle du NIST dans le développement de la main-d’œuvre, mais pourrait également institutionnaliser la place du CAISI dans la gouvernance nationale de l’IA. L’influence croissante du CAISI, aux côtés de l’échec du moratoire, le positionne comme un nœud critique dans les futurs efforts réglementaires.

Approche incrémentale des législateurs

Les législateurs semblent adopter une approche incrémentale. Des mesures fédérales récentes, telles que le projet de loi bipartite visant à interdire l’IA développée en Chine dans les agences fédérales et l’adoption de la Take it Down Act pour lutter contre les abus liés aux deepfakes, illustrent des réponses ciblées à des menaces spécifiques de l’IA. Ces projets de loi plus restreints pourraient servir de modèle pour une législation plus large à l’avenir.

Cependant, d’importants obstacles demeurent. Les divisions partisanes sur la confidentialité des données, les libertés civiles et l’autorité gouvernementale continuent de ralentir les négociations. Les conservateurs mettent en garde contre les excès fédéraux qui pourraient étouffer l’innovation, tandis que les progressistes poussent pour des protections basées sur l’équité et les droits. L’échec du moratoire n’a fait qu’amplifier ces divisions idéologiques.

Entre-temps, les États sont devenus des laboratoires de facto pour la réglementation de l’IA. Leurs cadres législatifs façonnent déjà la manière dont les entreprises conçoivent, déploient et gouvernent leurs technologies. Que ce soit à travers des audits algorithmiques obligatoires, des exigences de divulgation, ou des interdictions d’applications trompeuses, les États définissent le ton pour la responsabilité de l’IA.

Au milieu de ce paysage en rapide évolution, la communauté des affaires a intensifié ses efforts pour faire pression sur le Congrès afin d’adopter un cadre national unifié pour l’IA. Les grandes entreprises technologiques, les associations commerciales et les coalitions intersectorielles soutiennent que, sans une norme fédérale cohérente, le patchwork des lois des États entravera l’innovation et compliquera le déploiement à l’échelle nationale.

Leur message aux législateurs est clair : un cadre national est essentiel non seulement pour la clarté réglementaire mais aussi pour maintenir la compétitivité américaine dans la course mondiale à l’IA. Les défenseurs de l’industrie plaident pour une législation qui équilibre des garde-fous favorables à l’innovation avec une responsabilité significative, établissant des comparaisons avec la loi sur l’IA de l’Europe, mais appelant à une approche résolument américaine.

Des entreprises technologiques, notamment Microsoft, Google, Meta, Amazon, Nvidia, OpenAI et Anthropic, appellent à des garde-fous nationaux qui préemptent les lois des États et réduisent les charges de conformité alors qu’elles intensifient leurs efforts de lobbying pour une législation fédérale, arguant qu’un cadre national est essentiel pour réduire les charges de conformité et préserver la compétitivité américaine. Les processeurs de paiement et les institutions financières se sont joints à ce chœur, avertissant que les restrictions au niveau des États pourraient interférer avec les systèmes de détection de fraude alimentés par l’IA.

Des rapports ont indiqué qu’OpenAI et Anthropic « ajoutent désormais du personnel à Washington, augmentent leurs dépenses de lobbying et poursuivent des contrats dans le cadre du budget fédéral de 75 milliards de dollars, une partie significative étant désormais consacrée à l’IA ». Par ailleurs, il a été noté que Scale AI, un entrepreneur spécialisé avec le Pentagone et d’autres agences, prévoit également d’élargir ses équipes de relations gouvernementales et de lobbying, et que, fin mars, le géant des puces axées sur l’IA, Nvidia, a enregistré ses premiers lobbyistes internes.

Le PDG d’Anthropic, Dario Amodei, a exhorté le Congrès à adopter une norme nationale de transparence pour les entreprises d’IA.

« Ils nouent des relations avec de nombreux sénateurs et quelques membres de la Chambre des représentants. C’est vraiment important pour leurs ambitions, leurs attentes concernant l’avenir de l’IA, d’avoir le Congrès impliqué, même si c’est juste pour nous empêcher de faire quoi que ce soit », a déclaré le représentant Don Beyer.

« La demande générale est de ne pas réglementer ou d’avoir une réglementation légère, et jusqu’à présent, ils ont obtenu cela », a ajouté Doug Calidas, vice-président senior des affaires gouvernementales pour Americans for Responsible Innovation.

Articles

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...

Audit de l’IA en milieu de travail : 11 étapes essentielles

Avec l'intégration croissante des outils d'intelligence artificielle générative dans les opérations quotidiennes, en particulier dans les ressources humaines, les audits d'IA deviennent de plus en...

Certification en conformité AI : un atout pour l’avenir professionnel

La certification en conformité de l'IA prépare les professionnels à comprendre et à mettre en œuvre les exigences réglementaires en constante évolution, ce qui les rend indispensables. Obtenir cette...

Régulations des IA : Les États prennent les devants face à l’inaction du Congrès

Ce mois-ci, le Sénat américain a voté pour annuler une disposition controversée dans le vaste paquet fiscal et de dépenses du président Trump, qui aurait empêché les États et les collectivités locales...

Éthique et durabilité : l’avenir de l’IA en question

Alors que la Journée de l'Appréciation de l'IA approche, les leaders de l'industrie réfléchissent à l'impact croissant de l'intelligence artificielle en Australie et dans le monde. Ils soulignent à la...

Musiciens européens dénoncent la dérive de l’AI Act de l’UE

Trente et un artistes d'Europe ont publié des vidéos pour inciter la Commission européenne à "rester fidèle à la loi sur l'IA". Ils critiquent la mise en œuvre de la loi sur l'intelligence...

New Jersey : Pionnier de l’innovation en IA

Le New Jersey a été nommé l'un des rares États à atteindre le niveau "Avancé" en matière de préparation à l'intelligence artificielle, selon un rapport de Code for America. Cette reconnaissance...

New Jersey : Pionnier de l’innovation en IA

Le New Jersey a été nommé l'un des rares États à atteindre le niveau "Avancé" en matière de préparation à l'intelligence artificielle, selon un rapport de Code for America. Cette reconnaissance...