Transparence de l’IA : La nouvelle loi californienne et ses exigences

A computer screen displaying data

Une Nouvelle Loi en Californie Exigera la Transparence et les Mesures de Divulgation en matière d’IA

Le 19 septembre 2024, le gouverneur de Californie, Gavin Newsom, a signé la Loi sur la Transparence de l’IA de Californie, qui obligera les fournisseurs de systèmes d’intelligence artificielle (IA) générative à :

  • mettre à disposition un outil de détection de l’IA ;
  • offrir aux utilisateurs d’IA la possibilité d’inclure une divulgation manifeste indiquant que le contenu est généré par l’IA ;
  • inclure une divulgation latente dans le contenu généré par l’IA ;
  • établir un contrat avec les licenciés exigeant qu’ils maintiennent la capacité du système d’IA à inclure une telle divulgation latente dans le contenu créé ou modifié par le système.

La loi sur la transparence de l’IA en Californie entrera en vigueur le 1er janvier 2026, et représente la loi sur le watermarking de l’IA la plus complète et spécifique du pays.

Définitions Clés

Les dispositions de cette loi s’appliquent aux « fournisseurs couverts », qui sont définis comme « une personne qui crée, code ou produit autrement un système d’IA générative ayant plus de 1 000 000 de visiteurs ou d’utilisateurs mensuels et étant accessible au public » en Californie. De plus, un système d’IA générative est défini comme :

Une intelligence artificielle capable de générer du contenu synthétique dérivé, y compris du texte, des images, des vidéos et de l’audio, qui imite la structure et les caractéristiques des données d’entraînement du système.

La loi définit également « intelligence artificielle » comme :

Un système basé sur des machines ou conçu qui varie selon son niveau d’autonomie et qui peut, pour des objectifs explicites ou implicites, déduire à partir de l’entrée qu’il reçoit comment générer des résultats pouvant influencer les environnements physiques ou virtuels.

Les fournisseurs couverts devront se conformer à la loi à compter de la date de son entrée en vigueur, soit le 1er janvier 2026.

Exigences pour les Fournisseurs Couvert

Les exigences de transparence de la loi exigeront que les fournisseurs couverts fassent des divulgations concernant l’utilisation des systèmes d’IA générative. Tout d’abord, ils devront mettre à disposition—sans frais pour l’utilisateur—des outils de détection de l’IA permettant aux utilisateurs d’évaluer si le contenu image, vidéo ou audio a été créé ou modifié à l’aide d’un système d’IA générative. Sous réserve de certaines exigences techniques et protections de la vie privée, ces outils devront également fournir des données de provenance du système concernant le contenu, afin de permettre aux utilisateurs de vérifier les dispositifs, systèmes ou services utilisés pour générer ce contenu et son authenticité.

En outre, les fournisseurs couverts devront fournir aux utilisateurs à la fois des divulgations latentes dans le contenu généré par l’IA et une option d’inclure une divulgation manifeste dans ce contenu. Les divulgations manifestes—c’est-à-dire les divulgations sur le contenu généré par l’IA qui sont facilement perçues, comprises ou reconnues par une personne naturelle—devront identifier le contenu comme étant généré par l’IA de manière claire, visible, appropriée et permanente. Les divulgations latentes—celles qui ne sont pas manifestes, mais qui sont présentes dans les métadonnées du contenu généré par l’IA—devront transmettre (dans la mesure où cela est techniquement faisable et raisonnable, soit directement, soit par le biais d’un lien vers un site Web permanent) le nom du fournisseur couvert, le nom et le numéro de version du système d’IA générative, la date et l’heure de la création ou de la modification du contenu, ainsi qu’un identifiant unique. Les divulgations latentes doivent également être détectables par l’outil de détection de l’IA, conformément aux normes industrielles largement acceptées, et doivent être soit permanentes, soit extraordinairement difficiles à retirer.

Enfin, les fournisseurs couverts qui concèdent sous licence leurs systèmes d’IA générative à des tiers devront s’assurer que les licenciés respectent ces exigences de divulgation. Si les fournisseurs couverts savent que des licenciés tiers ne sont pas en mesure d’inclure de telles divulgations, ils devront révoquer leurs licences dans un délai de 96 heures.

La loi sera appliquée par le procureur général de Californie, un avocat de la ville ou un conseiller de comté, et prévoit des pénalités civiles de 5 000 dollars par jour si un fournisseur couvert est reconnu en violation.

Conclusions pour les Parties Prenantes Concernées

La Californie rejoint le Colorado, Utah et Illinois dans l’exigence de transparence concernant l’utilisation de l’IA. Cependant, contrairement à ces autres États, la loi de Californie est la première loi sur l’IA à créer des exigences spécifiques et complètes liées au watermarking. Les entreprises développant des systèmes d’IA générative doivent être conscientes de ces exigences techniques spécifiques alors qu’elles investissent du temps et des ressources dans le développement de technologies relevant de cette loi. Les concédants et licenciés de systèmes d’IA couverts devraient envisager de mettre à jour leurs accords pour répondre à ces exigences contractuelles.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...