Blocage des lois sur l’IA : quelles conséquences pour les États ?

A barrier or blockade

Les lois sur l’IA des États susceptibles d’être bloquées par un moratoire

Dans les semaines à venir, le Sénat des États-Unis devrait intensifier l’examen d’un vaste projet de loi budgétaire adopté par la Chambre, qui, s’il est adopté, pourrait interdire aux États d’appliquer des réglementations sur l’intelligence artificielle pendant 10 ans.

Des centaines de législateurs d’État et groupes de défense se sont opposés à cette disposition, que les républicains de la Chambre ont approuvée le mois dernier comme une tentative d’éliminer ce qu’ils appellent un patchwork de règles sur l’IA qui pourrait freiner l’innovation. Jeudi, les législateurs du Sénat ont publié une version du projet de loi qui maintiendrait le moratoire tout en liant les restrictions aux souscriptions fédérales de large bande.

Les critiques soutiennent que le moratoire fédéral — malgré l’exclusion de certaines lois d’État — préempterait une vaste gamme de réglementations existantes, y compris celles concernant l’IA dans le secteur de la santé, la discrimination algorithmique, les deepfakes nuisibles et l’abus en ligne d’enfants. Cependant, des experts juridiques ont averti qu’il existe une incertitude considérable quant aux lois spécifiques qui seraient préemptées par le projet de loi.

À cet égard, une organisation à but non lucratif qui s’oppose au moratoire a publié une nouvelle recherche examinant quelles lois sur l’IA des États seraient les plus à risque si le moratoire était adopté.

Les lois les plus susceptibles d’être bloquées

Le moratoire fédéral « risquerait » d’englober une « large gamme de législations d’intérêt public sur l’IA », selon le rapport, y compris les lois imposant des exigences de transparence sur les services d’IA ou visant à lutter contre la discrimination algorithmique, y compris sur le lieu de travail.

Cela inclut la loi sur l’IA du Colorado, SB 24-205, une loi pionnière qui introduit un nouveau standard de devoir de diligence raisonnable exigeant que ceux qui développent ou déploient des systèmes d’IA à haut risque préviennent la discrimination algorithmique et prennent des mesures pour atténuer les risques. Le groupe a indiqué qu’elle serait « probablement annulée » car elle « régule les technologies de l’IA en établissant un schéma de responsabilité civile pour les développeurs de systèmes d’IA à haut risque ».

Un gel de l’application des lois sur l’IA des États toucherait également probablement des lois dans l’Utah et la Californie visant à renforcer la transparence concernant l’utilisation de cet outil. Cela inclut la loi sur la politique de l’IA de l’Utah, SB 149, qui exige qu’il soit divulgué aux consommateurs lorsqu’ils interagissent avec certains produits d’IA générative ; et la loi sur la transparence de l’IA de Californie, SB 942, qui impose des divulgations claires pour les matériaux audio et visuels générés par l’IA.

Une paire de lois de protection des consommateurs en Illinois destinées à traiter l’utilisation de l’IA sur le lieu de travail risquent également d’être préemptées, selon le rapport. HB 3773, qui modifie la loi sur les droits humains de l’État, interdit d’utiliser l’IA pour prendre des décisions d’embauche si cela entraîne de la discrimination, tandis que la loi sur les interviews vidéo, HB 2557, exige que les employeurs informent les candidats lorsqu’ils déploient l’IA et obtiennent leur consentement avant de l’utiliser pour des évaluations.

Les lois qui pourraient être bloquées

Pour certaines lois d’État concernant l’IA, l’application du moratoire est moins claire. Selon le rapport, son « langage clair pourrait également potentiellement englober des lois concernant les systèmes de médias sociaux, les protections de la vie privée des données et d’autres technologies basées sur des algorithmes ». Cela pourrait « possiblement » inclure des lois sur la vie privée des données au Texas, dans le Maine et le Connecticut. La loi sur la vie privée et la sécurité des données du Texas, HB 4, par exemple, « semble réguler les technologies d’IA couvertes en créant des droits des consommateurs pour se retirer du profilage », et pourrait donc être annulée. La loi LD 1585 du Maine, par ailleurs, ciblerait probablement la technologie de reconnaissance faciale et contient des restrictions sur les accords de tiers qui « pourraient constituer une régulation des technologies d’IA ». Et la loi SB 3 du Connecticut pourrait être annulée car elle « restreint certaines caractéristiques de conception des systèmes de médias sociaux et la publicité ciblée automatisée », a conclu Americans for Responsible Innovation.

Les initiatives de sécurité en ligne pour les enfants sont également susceptibles de rencontrer une limbo similaire. La tentative emblématique de New York de bannir les algorithmes de médias sociaux « addictifs », la loi SB 7694A, pourrait être bloquée en raison de sa définition des flux algorithmiques, a écrit le groupe. De même, la loi sur la protection des mineurs dans les médias sociaux de l’Utah, SB 194, qui impose des restrictions sur certaines fonctionnalités de la plateforme pouvant entraîner une utilisation excessive.

Le groupe a indiqué qu’une autre catégorie de lois susceptibles d’être impactées concerne les « dommages causés par l’IA générative », telles que la loi ELVIS du Tennessee, SB 2096, qui interdit d’utiliser l’IA pour créer un deepfake non autorisé d’une autre personne, et la loi sur le contenu numérique synthétique de la Virginie, HB 2124, qui criminalise l’utilisation de médias synthétiques pour frauder ou diffamer quelqu’un.

Les lois les moins susceptibles d’être bloquées

Selon le rapport, les lois les moins susceptibles d’être entravées concernent principalement la manière dont la technologie est intégrée par les gouvernements des États. Cela s’explique par le fait que, lors des négociations à la Chambre, les législateurs ont inséré un langage stipulant que seules les réglementations concernant l’IA « entrées dans le commerce inter-étatique » seraient affectées, ce qui n’est probablement pas le cas des travaux d’État.

De ce fait, des mesures telles que la loi sur la responsabilité de l’IA générative de Californie, SB 896, et la loi HB 1688 du New Hampshire, qui établissent toutes des règles sur la manière dont les agences et départements d’État doivent déployer la technologie, sont « peu susceptibles » d’être affectées, selon le rapport.

Statut en suspens

Le rapport était basé sur la disposition du moratoire telle qu’elle a été rédigée dans le paquet de réconciliation qui a été adopté par la Chambre le mois dernier, mais il reste à voir si la disposition sur l’IA survivra au Sénat, y compris un examen pour savoir si elle sera éligible sous la règle Byrd.

Le Comité du commerce du Sénat a publié jeudi sa version du paquet de réconciliation, qui contenait un moratoire révisé de 10 ans sur les lois sur l’IA des États. Dans cette itération, les États seraient bloqués

En reliant la disposition plus concrètement à la distribution de fonds fédéraux, la version révisée pourrait avoir plus de chances de résister à la règle Byrd, qui stipule que la législation adoptée par le biais de la réconciliation ne peut pas être « extrinsèque » au budget lui-même.

Il est également incertain de savoir si elle aura suffisamment de soutien politique dans la chambre, où les démocrates et certains républicains, tels que la sénatrice Marsha Blackburn (R-TN), se sont déjà opposés à l’idée.

Les républicains espèrent finaliser le paquet de réconciliation avant le Quatrième juillet.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...