Les lois sur l’IA des États susceptibles d’être bloquées par un moratoire
Dans les semaines à venir, le Sénat des États-Unis devrait intensifier l’examen d’un vaste projet de loi budgétaire adopté par la Chambre, qui, s’il est adopté, pourrait interdire aux États d’appliquer des réglementations sur l’intelligence artificielle pendant 10 ans.
Des centaines de législateurs d’État et groupes de défense se sont opposés à cette disposition, que les républicains de la Chambre ont approuvée le mois dernier comme une tentative d’éliminer ce qu’ils appellent un patchwork de règles sur l’IA qui pourrait freiner l’innovation. Jeudi, les législateurs du Sénat ont publié une version du projet de loi qui maintiendrait le moratoire tout en liant les restrictions aux souscriptions fédérales de large bande.
Les critiques soutiennent que le moratoire fédéral — malgré l’exclusion de certaines lois d’État — préempterait une vaste gamme de réglementations existantes, y compris celles concernant l’IA dans le secteur de la santé, la discrimination algorithmique, les deepfakes nuisibles et l’abus en ligne d’enfants. Cependant, des experts juridiques ont averti qu’il existe une incertitude considérable quant aux lois spécifiques qui seraient préemptées par le projet de loi.
À cet égard, une organisation à but non lucratif qui s’oppose au moratoire a publié une nouvelle recherche examinant quelles lois sur l’IA des États seraient les plus à risque si le moratoire était adopté.
Les lois les plus susceptibles d’être bloquées
Le moratoire fédéral « risquerait » d’englober une « large gamme de législations d’intérêt public sur l’IA », selon le rapport, y compris les lois imposant des exigences de transparence sur les services d’IA ou visant à lutter contre la discrimination algorithmique, y compris sur le lieu de travail.
Cela inclut la loi sur l’IA du Colorado, SB 24-205, une loi pionnière qui introduit un nouveau standard de devoir de diligence raisonnable exigeant que ceux qui développent ou déploient des systèmes d’IA à haut risque préviennent la discrimination algorithmique et prennent des mesures pour atténuer les risques. Le groupe a indiqué qu’elle serait « probablement annulée » car elle « régule les technologies de l’IA en établissant un schéma de responsabilité civile pour les développeurs de systèmes d’IA à haut risque ».
Un gel de l’application des lois sur l’IA des États toucherait également probablement des lois dans l’Utah et la Californie visant à renforcer la transparence concernant l’utilisation de cet outil. Cela inclut la loi sur la politique de l’IA de l’Utah, SB 149, qui exige qu’il soit divulgué aux consommateurs lorsqu’ils interagissent avec certains produits d’IA générative ; et la loi sur la transparence de l’IA de Californie, SB 942, qui impose des divulgations claires pour les matériaux audio et visuels générés par l’IA.
Une paire de lois de protection des consommateurs en Illinois destinées à traiter l’utilisation de l’IA sur le lieu de travail risquent également d’être préemptées, selon le rapport. HB 3773, qui modifie la loi sur les droits humains de l’État, interdit d’utiliser l’IA pour prendre des décisions d’embauche si cela entraîne de la discrimination, tandis que la loi sur les interviews vidéo, HB 2557, exige que les employeurs informent les candidats lorsqu’ils déploient l’IA et obtiennent leur consentement avant de l’utiliser pour des évaluations.
Les lois qui pourraient être bloquées
Pour certaines lois d’État concernant l’IA, l’application du moratoire est moins claire. Selon le rapport, son « langage clair pourrait également potentiellement englober des lois concernant les systèmes de médias sociaux, les protections de la vie privée des données et d’autres technologies basées sur des algorithmes ». Cela pourrait « possiblement » inclure des lois sur la vie privée des données au Texas, dans le Maine et le Connecticut. La loi sur la vie privée et la sécurité des données du Texas, HB 4, par exemple, « semble réguler les technologies d’IA couvertes en créant des droits des consommateurs pour se retirer du profilage », et pourrait donc être annulée. La loi LD 1585 du Maine, par ailleurs, ciblerait probablement la technologie de reconnaissance faciale et contient des restrictions sur les accords de tiers qui « pourraient constituer une régulation des technologies d’IA ». Et la loi SB 3 du Connecticut pourrait être annulée car elle « restreint certaines caractéristiques de conception des systèmes de médias sociaux et la publicité ciblée automatisée », a conclu Americans for Responsible Innovation.
Les initiatives de sécurité en ligne pour les enfants sont également susceptibles de rencontrer une limbo similaire. La tentative emblématique de New York de bannir les algorithmes de médias sociaux « addictifs », la loi SB 7694A, pourrait être bloquée en raison de sa définition des flux algorithmiques, a écrit le groupe. De même, la loi sur la protection des mineurs dans les médias sociaux de l’Utah, SB 194, qui impose des restrictions sur certaines fonctionnalités de la plateforme pouvant entraîner une utilisation excessive.
Le groupe a indiqué qu’une autre catégorie de lois susceptibles d’être impactées concerne les « dommages causés par l’IA générative », telles que la loi ELVIS du Tennessee, SB 2096, qui interdit d’utiliser l’IA pour créer un deepfake non autorisé d’une autre personne, et la loi sur le contenu numérique synthétique de la Virginie, HB 2124, qui criminalise l’utilisation de médias synthétiques pour frauder ou diffamer quelqu’un.
Les lois les moins susceptibles d’être bloquées
Selon le rapport, les lois les moins susceptibles d’être entravées concernent principalement la manière dont la technologie est intégrée par les gouvernements des États. Cela s’explique par le fait que, lors des négociations à la Chambre, les législateurs ont inséré un langage stipulant que seules les réglementations concernant l’IA « entrées dans le commerce inter-étatique » seraient affectées, ce qui n’est probablement pas le cas des travaux d’État.
De ce fait, des mesures telles que la loi sur la responsabilité de l’IA générative de Californie, SB 896, et la loi HB 1688 du New Hampshire, qui établissent toutes des règles sur la manière dont les agences et départements d’État doivent déployer la technologie, sont « peu susceptibles » d’être affectées, selon le rapport.
Statut en suspens
Le rapport était basé sur la disposition du moratoire telle qu’elle a été rédigée dans le paquet de réconciliation qui a été adopté par la Chambre le mois dernier, mais il reste à voir si la disposition sur l’IA survivra au Sénat, y compris un examen pour savoir si elle sera éligible sous la règle Byrd.
Le Comité du commerce du Sénat a publié jeudi sa version du paquet de réconciliation, qui contenait un moratoire révisé de 10 ans sur les lois sur l’IA des États. Dans cette itération, les États seraient bloqués
En reliant la disposition plus concrètement à la distribution de fonds fédéraux, la version révisée pourrait avoir plus de chances de résister à la règle Byrd, qui stipule que la législation adoptée par le biais de la réconciliation ne peut pas être « extrinsèque » au budget lui-même.
Il est également incertain de savoir si elle aura suffisamment de soutien politique dans la chambre, où les démocrates et certains républicains, tels que la sénatrice Marsha Blackburn (R-TN), se sont déjà opposés à l’idée.
Les républicains espèrent finaliser le paquet de réconciliation avant le Quatrième juillet.