Quelles sont les principales considérations dans l’approche prédominante au niveau de l’État pour régir l’IA dans la prise de décision conséquente ?
À travers les États-Unis, les législateurs des États se concentrent de plus en plus sur la réglementation de l’IA utilisée dans les « décisions conséquentes »—celles qui ont un impact significatif sur les moyens de subsistance et les opportunités de vie des individus. Cette approche est conçue pour favoriser l’équité, la transparence, la supervision et la responsabilité, en particulier dans les domaines traditionnellement couverts par les lois sur les droits civils tels que l’éducation, le logement, les services financiers, les soins de santé et l’emploi. Le paysage réglementaire est complexe, mais des considérations clés définissent cette approche prédominante.
Définir la portée
Les législateurs suivent souvent un cadre en cinq parties pour définir la portée des « systèmes d’IA à haut risque » ou des « outils de prise de décision automatisée » :
- Définir l’IA : La plupart des États s’alignent sur la définition de l’OCDE : un système d’IA déduit des entrées pour générer des sorties telles que des prédictions, du contenu ou des décisions influençant les environnements physiques ou virtuels.
- Contexte pertinent : La réglementation se concentre principalement sur les secteurs protégés par les lois sur les droits civils, où l’IA a un impact sur l’éducation, l’emploi, le logement, la finance, les services gouvernementaux essentiels, les soins de santé, l’assurance et les services juridiques. Certaines propositions, comme AB 2930 de la Californie, sont plus prescriptives, incluant les services publics essentiels, la justice pénale, les services d’adoption, les services de reproduction et le vote.
- Impact et rôle de l’IA : C’est le domaine le plus débattu. Les législateurs examinent des termes tels que « facilitant la prise de décision » (seuil le plus bas), « facteur substantiel » (médiane) et « facteur déterminant » (le plus élevé). Le problème essentiel est d’équilibrer la portée réglementaire avec la clarté opérationnelle pour les innovateurs.
- Entités réglementées : L’approche fait généralement une distinction entre les développeurs (ceux qui construisent les systèmes d’IA) et les déployeurs (ceux qui les utilisent), attribuant des obligations spécifiques à chaque rôle en matière de transparence, d’évaluations des risques et de gouvernance.
- Exceptions courantes : Des exceptions existent souvent pour des technologies spécifiques (calculatrices, bases de données, etc.), les secteurs déjà régis par les lois existantes, les petites entreprises et les activités d’intérêt public.
Lutte contre la discrimination algorithmique
Atténuer la discrimination algorithmique à l’égard des classes protégées est un objectif primordial. La plupart des propositions la définissent comme un traitement différentiel injustifié basé sur une classe protégée. Certains cadres législatifs établissent une interdiction générale de la discrimination algorithmique, tandis que d’autres cadres, comme au Colorado, créent un devoir de diligence pour prévenir la discrimination algorithmique. Les interactions entre les nouvelles lois et les lois existantes sur les droits civils ne sont actuellement pas claires, ce qui entraîne confusion et incertitude. De plus, il existe une disparité entre les points de vue des consommateurs et des représentants de l’industrie, où les consommateurs recherchent une plus grande protection, tandis que les industries exigent moins de contraintes.
Obligations pour les développeurs et les déployeurs
Les obligations courantes pour les développeurs et les déployeurs sont axées sur :
- Transparence : Cela comprend les avis aux individus concernant l’utilisation de l’IA, les mesures de transparence publique et la documentation partagée entre les développeurs et les déployeurs.
- Évaluations : Il existe des différences substantielles entre les tests des systèmes d’IA pour évaluer les aspects techniques sur la base de certaines mesures telles que l’exactitude et la fiabilité pour les biais fondés sur des caractéristiques protégées, et les évaluations ou les évaluations d’impact de l’IA qui évaluent et documentent si et dans quelle mesure un système d’IA pose un risque de discrimination pour les individus.
- Programmes de gouvernance de l’IA : Des cadres structurés sont nécessaires pour superviser et gérer le développement et le déploiement de l’IA de manière responsable.
Droits des consommateurs
Les cadres établissent des droits pour les individus touchés par les systèmes d’IA, notamment :
- Droit à l’information et à l’explication : Les individus doivent être informés de l’utilisation de l’IA et de son impact.
- Droit de correction : Possibilité de corriger les informations inexactes utilisées dans la prise de décision.
- Droit de retrait ou d’appel : Possibilité de se retirer des décisions automatisées ou de faire appel pour un examen humain.
Application
L’application est généralement gérée par le bureau du procureur général de l’État. Les outils réglementaires comprennent la déclaration affirmative et la production de documents, ainsi que des mécanismes d’application tels que les droits de rectification et les présomptions réfragables de conformité. Actuellement, la plupart des législateurs des États hésitent à inclure un droit d’action privé dans les projets de loi sur l’IA et la confidentialité des données, en raison du potentiel fardeau juridique.
Comment les approches réglementaires spécifiques à la technologie concernant l’IA répondent-elles aux défis uniques, en considérant des exemples d’IA générative et de modèles frontières ?
Bien que de nombreux États américains adoptent une approche réglementaire de l’IA basée sur les risques, certains législateurs poursuivent des règles spécifiques à la technologie. Celles-ci se concentrent sur les risques uniques associés à certains types d’IA, notamment l’IA générative et les modèles frontières.
IA Générative : Transparence et Divulgation
Les réglementations pour l’IA générative visent principalement à renforcer la transparence. Cela implique :
- Avis aux Consommateurs : Informer les utilisateurs lorsqu’ils interagissent avec des systèmes d’IA générative. Un bon exemple est le SB 149 de l’Utah, qui exige des entités qu’elles divulguent lorsqu’un individu interagit avec l’IA générative.
- Étiquetage du Contenu : Indiquer clairement le contenu comme étant synthétique ou généré par l’IA.
- Filigranage : Mettre en œuvre des filigranes pour identifier le contenu créé par l’IA.
- Outils de Détection de l’IA : Comme dans le SB 942 de Californie, fournir des outils pour vérifier si le contenu a été généré ou modifié par l’IA.
- Divulgation de la Documentation : La loi AB 2013 de Californie exige que les développeurs d’IA générative divulguent publiquement les données utilisées pour entraîner leurs systèmes.
Modèles Frontières : Sécurité et Supervision
Les réglementations pour l’IA frontalière ou les modèles de fondation (grands modèles d’IA qui peuvent être utilisés dans une grande variété de cas d’utilisation et d’applications, parfois appelés « IA à usage général ») traitent les risques découlant de leur échelle et de leur puissance. Les principaux domaines examinés comprennent :
- Protocoles de Sécurité : Exiger des développeurs qu’ils aient des protocoles de sécurité documentés. Un exemple provient de la législation californienne proposée en 2024, SB 1047.
- Capacité d’Arrêt : Garantir la capacité d’arrêter rapidement les modèles si nécessaire. Le SB 1047 adopté par la législature en est un exemple.
Défis liés à la Réglementation des Modèles Frontières/de Fondation
La réglementation de tels modèles pose des défis uniques :
- Complexité et Échelle : Les complexités de ces modèles rendent difficile l’établissement de normes efficaces.
- Puissance de Calcul comme Seuil : Certaines propositions utilisent la puissance de calcul (par exemple, les FLOPs) comme restriction par défaut. Les critiques soutiennent que cette mesure n’est pas toujours un indicateur de risque fiable. Ils soutiennent qu’il y a trop d’insistance sur les risques spéculatifs par rapport aux risques avérés, tels que les biais algorithmiques.
- Impact sur l’Open Source : Les exigences imposées aux développeurs pourraient limiter la disponibilité et la modification des modèles open source. En réponse aux préoccupations concernant l’impact sur l’open source, le SB 1047 de Californie a été amendé pour exclure les modèles créés en affinant un modèle couvert, en utilisant moins de dix millions de dollars en coût de calcul.
french
Quelles obligations et quels droits spécifiques liés aux systèmes d’IA sont généralement établis pour les développeurs, les déployeurs et les consommateurs, et comment sont-ils appliqués ?
La législation étatique sur l’IA se concentre de plus en plus sur la définition de droits et d’obligations spécifiques pour les développeurs, les déployeurs et les consommateurs afin de garantir l’équité, la transparence et la responsabilité. Décomposons ce que chaque rôle implique généralement.
Obligations pour les développeurs
Les développeurs, qui construisent des systèmes d’IA, sont confrontés à des obligations liées à :
- Transparence et documentation : Fournir une documentation complète sur la fonctionnalité, l’objectif prévu et les risques potentiels du système d’IA. Cela inclut souvent la divulgation d’informations sur les données utilisées pour entraîner le modèle.
- Évaluation des risques : Tester les systèmes pour détecter les biais et les vulnérabilités à la discrimination et fournir ces informations aux déployeurs.
- Diligence raisonnable : Dans les États dotés d’un modèle réglementaire de devoir de diligence, les développeurs assument la responsabilité d’une « diligence raisonnable » pour protéger les consommateurs contre la discrimination algorithmique.
Obligations pour les déployeurs
Les déployeurs, qui utilisent des systèmes d’IA, sont généralement responsables de :
- Transparence et notification : Informer les individus du moment et de la manière dont un système d’IA est utilisé pour prendre des décisions importantes qui les affectent.
- Programmes de gouvernance de l’IA : Mettre en œuvre des programmes structurés et des politiques de gestion des risques pour superviser l’utilisation de l’IA. Ces programmes nécessitent souvent des spécifications concernant l’atténuation des risques et les mises à jour itératives.
- Surveillance post-déploiement : Surveiller en permanence les systèmes d’IA pour détecter les biais, l’exactitude et les risques de discrimination.
- Fournir des droits individuels : Honorer les droits des consommateurs (détaillés ci-dessous), ce qui inclut souvent la correction des informations inexactes utilisées dans la prise de décision.
Droits des consommateurs
De nouveaux droits sont accordés aux consommateurs en vertu de la législation proposée sur l’IA :
- Droit à la notification et à l’explication : Recevoir des informations claires et accessibles sur l’utilisation de l’IA dans les processus de prise de décision. Cela inclut la compréhension de l’objectif du système et de son fonctionnement.
- Droit de rectification : Corriger les données personnelles erronées utilisées par un système d’IA, en particulier si une décision défavorable a été prise.
- Droit de recours ou de retrait : Certaines législations prévoient le droit de faire appel d’une décision basée sur l’IA pour un examen humain ou de se retirer complètement de la prise de décision automatisée.
Mécanismes d’application
L’application est généralement assurée par le procureur général de l’État. Les mécanismes courants incluent :
- Rapports affirmatifs : Les développeurs divulguent les risques potentiels associés aux systèmes d’IA.
- Production de documents : Exiger des développeurs et des déployeurs qu’ils conservent et produisent des documents.
- Droit de réparation : Donner aux organisations la possibilité de corriger les violations dans un délai spécifique.
- Présomption réfutable : Fournir une « présomption réfutable » de conformité si les entreprises se conforment aux exigences réglementaires.
- Moyen de défense affirmatif : Offrir des moyens de défense contre une action si les développeurs corrigent toute violation dans les 30 jours et se conforment aux cadres de gestion des risques reconnus.
Il convient de noter que les législateurs des États hésitent à inclure un droit d’action privé dans la législation sur l’IA, car cela pourrait potentiellement entraîner un contentieux excessif.