Lois sur l’IA des États : Façonner une IA responsable dans un monde de conséquences

A compass
Alors que l’intelligence artificielle façonne de plus en plus nos vies, les gouvernements des États à travers les États-Unis sont aux prises avec la manière d’assurer son développement et son utilisation responsables. Cet examen se penche sur les efforts législatifs actuels axés sur la gouvernance de l’IA, en particulier dans le contexte de décisions qui ont un impact profond sur les individus. Nous explorerons les principes fondamentaux et les cadres pratiques qui émergent alors que les États s’efforcent d’équilibrer l’innovation avec l’équité, la transparence et la responsabilité dans ce paysage technologique en évolution rapide. En comprenant les éléments clés de ces approches réglementaires émergentes, nous pouvons mieux anticiper leur impact potentiel sur les entreprises, les consommateurs et l’avenir de l’IA elle-même. L’analyse suivante met en évidence les principaux défis de définition, les obligations et les droits contenus dans ces lois émergentes sur l’IA.

Quelles sont les principales considérations dans l’approche prédominante au niveau de l’État pour régir l’IA dans la prise de décision conséquente ?

À travers les États-Unis, les législateurs des États se concentrent de plus en plus sur la réglementation de l’IA utilisée dans les « décisions conséquentes »—celles qui ont un impact significatif sur les moyens de subsistance et les opportunités de vie des individus. Cette approche est conçue pour favoriser l’équité, la transparence, la supervision et la responsabilité, en particulier dans les domaines traditionnellement couverts par les lois sur les droits civils tels que l’éducation, le logement, les services financiers, les soins de santé et l’emploi. Le paysage réglementaire est complexe, mais des considérations clés définissent cette approche prédominante.

Définir la portée

Les législateurs suivent souvent un cadre en cinq parties pour définir la portée des « systèmes d’IA à haut risque » ou des « outils de prise de décision automatisée » :

  • Définir l’IA : La plupart des États s’alignent sur la définition de l’OCDE : un système d’IA déduit des entrées pour générer des sorties telles que des prédictions, du contenu ou des décisions influençant les environnements physiques ou virtuels.
  • Contexte pertinent : La réglementation se concentre principalement sur les secteurs protégés par les lois sur les droits civils, où l’IA a un impact sur l’éducation, l’emploi, le logement, la finance, les services gouvernementaux essentiels, les soins de santé, l’assurance et les services juridiques. Certaines propositions, comme AB 2930 de la Californie, sont plus prescriptives, incluant les services publics essentiels, la justice pénale, les services d’adoption, les services de reproduction et le vote.
  • Impact et rôle de l’IA : C’est le domaine le plus débattu. Les législateurs examinent des termes tels que « facilitant la prise de décision » (seuil le plus bas), « facteur substantiel » (médiane) et « facteur déterminant » (le plus élevé). Le problème essentiel est d’équilibrer la portée réglementaire avec la clarté opérationnelle pour les innovateurs.
  • Entités réglementées : L’approche fait généralement une distinction entre les développeurs (ceux qui construisent les systèmes d’IA) et les déployeurs (ceux qui les utilisent), attribuant des obligations spécifiques à chaque rôle en matière de transparence, d’évaluations des risques et de gouvernance.
  • Exceptions courantes : Des exceptions existent souvent pour des technologies spécifiques (calculatrices, bases de données, etc.), les secteurs déjà régis par les lois existantes, les petites entreprises et les activités d’intérêt public.

Lutte contre la discrimination algorithmique

Atténuer la discrimination algorithmique à l’égard des classes protégées est un objectif primordial. La plupart des propositions la définissent comme un traitement différentiel injustifié basé sur une classe protégée. Certains cadres législatifs établissent une interdiction générale de la discrimination algorithmique, tandis que d’autres cadres, comme au Colorado, créent un devoir de diligence pour prévenir la discrimination algorithmique. Les interactions entre les nouvelles lois et les lois existantes sur les droits civils ne sont actuellement pas claires, ce qui entraîne confusion et incertitude. De plus, il existe une disparité entre les points de vue des consommateurs et des représentants de l’industrie, où les consommateurs recherchent une plus grande protection, tandis que les industries exigent moins de contraintes.

Obligations pour les développeurs et les déployeurs

Les obligations courantes pour les développeurs et les déployeurs sont axées sur :

  • Transparence : Cela comprend les avis aux individus concernant l’utilisation de l’IA, les mesures de transparence publique et la documentation partagée entre les développeurs et les déployeurs.
  • Évaluations : Il existe des différences substantielles entre les tests des systèmes d’IA pour évaluer les aspects techniques sur la base de certaines mesures telles que l’exactitude et la fiabilité pour les biais fondés sur des caractéristiques protégées, et les évaluations ou les évaluations d’impact de l’IA qui évaluent et documentent si et dans quelle mesure un système d’IA pose un risque de discrimination pour les individus.
  • Programmes de gouvernance de l’IA : Des cadres structurés sont nécessaires pour superviser et gérer le développement et le déploiement de l’IA de manière responsable.

Droits des consommateurs

Les cadres établissent des droits pour les individus touchés par les systèmes d’IA, notamment :

  • Droit à l’information et à l’explication : Les individus doivent être informés de l’utilisation de l’IA et de son impact.
  • Droit de correction : Possibilité de corriger les informations inexactes utilisées dans la prise de décision.
  • Droit de retrait ou d’appel : Possibilité de se retirer des décisions automatisées ou de faire appel pour un examen humain.

Application

L’application est généralement gérée par le bureau du procureur général de l’État. Les outils réglementaires comprennent la déclaration affirmative et la production de documents, ainsi que des mécanismes d’application tels que les droits de rectification et les présomptions réfragables de conformité. Actuellement, la plupart des législateurs des États hésitent à inclure un droit d’action privé dans les projets de loi sur l’IA et la confidentialité des données, en raison du potentiel fardeau juridique.

Comment les approches réglementaires spécifiques à la technologie concernant l’IA répondent-elles aux défis uniques, en considérant des exemples d’IA générative et de modèles frontières ?

Bien que de nombreux États américains adoptent une approche réglementaire de l’IA basée sur les risques, certains législateurs poursuivent des règles spécifiques à la technologie. Celles-ci se concentrent sur les risques uniques associés à certains types d’IA, notamment l’IA générative et les modèles frontières.

IA Générative : Transparence et Divulgation

Les réglementations pour l’IA générative visent principalement à renforcer la transparence. Cela implique :

  • Avis aux Consommateurs : Informer les utilisateurs lorsqu’ils interagissent avec des systèmes d’IA générative. Un bon exemple est le SB 149 de l’Utah, qui exige des entités qu’elles divulguent lorsqu’un individu interagit avec l’IA générative.
  • Étiquetage du Contenu : Indiquer clairement le contenu comme étant synthétique ou généré par l’IA.
  • Filigranage : Mettre en œuvre des filigranes pour identifier le contenu créé par l’IA.
  • Outils de Détection de l’IA : Comme dans le SB 942 de Californie, fournir des outils pour vérifier si le contenu a été généré ou modifié par l’IA.
  • Divulgation de la Documentation : La loi AB 2013 de Californie exige que les développeurs d’IA générative divulguent publiquement les données utilisées pour entraîner leurs systèmes.

Modèles Frontières : Sécurité et Supervision

Les réglementations pour l’IA frontalière ou les modèles de fondation (grands modèles d’IA qui peuvent être utilisés dans une grande variété de cas d’utilisation et d’applications, parfois appelés « IA à usage général ») traitent les risques découlant de leur échelle et de leur puissance. Les principaux domaines examinés comprennent :

  • Protocoles de Sécurité : Exiger des développeurs qu’ils aient des protocoles de sécurité documentés. Un exemple provient de la législation californienne proposée en 2024, SB 1047.
  • Capacité d’Arrêt : Garantir la capacité d’arrêter rapidement les modèles si nécessaire. Le SB 1047 adopté par la législature en est un exemple.

Défis liés à la Réglementation des Modèles Frontières/de Fondation

La réglementation de tels modèles pose des défis uniques :

  • Complexité et Échelle : Les complexités de ces modèles rendent difficile l’établissement de normes efficaces.
  • Puissance de Calcul comme Seuil : Certaines propositions utilisent la puissance de calcul (par exemple, les FLOPs) comme restriction par défaut. Les critiques soutiennent que cette mesure n’est pas toujours un indicateur de risque fiable. Ils soutiennent qu’il y a trop d’insistance sur les risques spéculatifs par rapport aux risques avérés, tels que les biais algorithmiques.
  • Impact sur l’Open Source : Les exigences imposées aux développeurs pourraient limiter la disponibilité et la modification des modèles open source. En réponse aux préoccupations concernant l’impact sur l’open source, le SB 1047 de Californie a été amendé pour exclure les modèles créés en affinant un modèle couvert, en utilisant moins de dix millions de dollars en coût de calcul.

french

Quelles obligations et quels droits spécifiques liés aux systèmes d’IA sont généralement établis pour les développeurs, les déployeurs et les consommateurs, et comment sont-ils appliqués ?

La législation étatique sur l’IA se concentre de plus en plus sur la définition de droits et d’obligations spécifiques pour les développeurs, les déployeurs et les consommateurs afin de garantir l’équité, la transparence et la responsabilité. Décomposons ce que chaque rôle implique généralement.

Obligations pour les développeurs

Les développeurs, qui construisent des systèmes d’IA, sont confrontés à des obligations liées à :

  • Transparence et documentation : Fournir une documentation complète sur la fonctionnalité, l’objectif prévu et les risques potentiels du système d’IA. Cela inclut souvent la divulgation d’informations sur les données utilisées pour entraîner le modèle.
  • Évaluation des risques : Tester les systèmes pour détecter les biais et les vulnérabilités à la discrimination et fournir ces informations aux déployeurs.
  • Diligence raisonnable : Dans les États dotés d’un modèle réglementaire de devoir de diligence, les développeurs assument la responsabilité d’une « diligence raisonnable » pour protéger les consommateurs contre la discrimination algorithmique.

Obligations pour les déployeurs

Les déployeurs, qui utilisent des systèmes d’IA, sont généralement responsables de :

  • Transparence et notification : Informer les individus du moment et de la manière dont un système d’IA est utilisé pour prendre des décisions importantes qui les affectent.
  • Programmes de gouvernance de l’IA : Mettre en œuvre des programmes structurés et des politiques de gestion des risques pour superviser l’utilisation de l’IA. Ces programmes nécessitent souvent des spécifications concernant l’atténuation des risques et les mises à jour itératives.
  • Surveillance post-déploiement : Surveiller en permanence les systèmes d’IA pour détecter les biais, l’exactitude et les risques de discrimination.
  • Fournir des droits individuels : Honorer les droits des consommateurs (détaillés ci-dessous), ce qui inclut souvent la correction des informations inexactes utilisées dans la prise de décision.

Droits des consommateurs

De nouveaux droits sont accordés aux consommateurs en vertu de la législation proposée sur l’IA :

  • Droit à la notification et à l’explication : Recevoir des informations claires et accessibles sur l’utilisation de l’IA dans les processus de prise de décision. Cela inclut la compréhension de l’objectif du système et de son fonctionnement.
  • Droit de rectification : Corriger les données personnelles erronées utilisées par un système d’IA, en particulier si une décision défavorable a été prise.
  • Droit de recours ou de retrait : Certaines législations prévoient le droit de faire appel d’une décision basée sur l’IA pour un examen humain ou de se retirer complètement de la prise de décision automatisée.

Mécanismes d’application

L’application est généralement assurée par le procureur général de l’État. Les mécanismes courants incluent :

  • Rapports affirmatifs : Les développeurs divulguent les risques potentiels associés aux systèmes d’IA.
  • Production de documents : Exiger des développeurs et des déployeurs qu’ils conservent et produisent des documents.
  • Droit de réparation : Donner aux organisations la possibilité de corriger les violations dans un délai spécifique.
  • Présomption réfutable : Fournir une « présomption réfutable » de conformité si les entreprises se conforment aux exigences réglementaires.
  • Moyen de défense affirmatif : Offrir des moyens de défense contre une action si les développeurs corrigent toute violation dans les 30 jours et se conforment aux cadres de gestion des risques reconnus.

Il convient de noter que les législateurs des États hésitent à inclure un droit d’action privé dans la législation sur l’IA, car cela pourrait potentiellement entraîner un contentieux excessif.

Le paysage émergent de la gouvernance de l’IA au niveau des États révèle un effort multidimensionnel pour équilibrer l’innovation avec des protections robustes. Ces cadres, bien que variant en portée et en application, soulignent un engagement envers l’équité, la transparence et la responsabilité dans le déploiement de l’IA. Alors que les États s’efforcent de définir les systèmes à haut risque, de lutter contre la discrimination algorithmique et d’établir des obligations claires, l’accent reste mis sur l’autonomisation des individus et sur la garantie que l’IA profite à la société dans son ensemble. La trajectoire d’un développement responsable de l’IA dépend d’un dialogue continu, d’un affinement des réglementations, de la promotion de la collaboration entre les développeurs, les déployeurs et les décideurs politiques, et de la priorisation des considérations éthiques dans les algorithmes qui façonnent notre avenir.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Révolutionner la gouvernance de l’IA dans la gestion des risques

L'intelligence artificielle et les technologies de l'IA sont essentielles au succès de la fonction de risque. Les directeurs des risques peuvent déployer l'IA pour répondre à la conformité et naviguer...

Le Sénat met fin au moratoire sur les lois sur l’IA

Le Sénat américain a voté à une écrasante majorité de 99 contre 1 pour supprimer une disposition qui aurait bloqué les États de réglementer l'intelligence artificielle pendant la prochaine décennie...

L’écart de conformité de 83 % des entreprises pharmaceutiques face à la sécurité des données IA

L'industrie pharmaceutique est confrontée à une menace sérieuse en matière de sécurité des données liées à l'intelligence artificielle, avec seulement 17 % des entreprises ayant mis en place des...

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...