Transparence de l’IA : La nouvelle loi californienne et ses exigences

A computer screen displaying data

Une Nouvelle Loi en Californie Exigera la Transparence et les Mesures de Divulgation en matière d’IA

Le 19 septembre 2024, le gouverneur de Californie, Gavin Newsom, a signé la Loi sur la Transparence de l’IA de Californie, qui obligera les fournisseurs de systèmes d’intelligence artificielle (IA) générative à :

  • mettre à disposition un outil de détection de l’IA ;
  • offrir aux utilisateurs d’IA la possibilité d’inclure une divulgation manifeste indiquant que le contenu est généré par l’IA ;
  • inclure une divulgation latente dans le contenu généré par l’IA ;
  • établir un contrat avec les licenciés exigeant qu’ils maintiennent la capacité du système d’IA à inclure une telle divulgation latente dans le contenu créé ou modifié par le système.

La loi sur la transparence de l’IA en Californie entrera en vigueur le 1er janvier 2026, et représente la loi sur le watermarking de l’IA la plus complète et spécifique du pays.

Définitions Clés

Les dispositions de cette loi s’appliquent aux « fournisseurs couverts », qui sont définis comme « une personne qui crée, code ou produit autrement un système d’IA générative ayant plus de 1 000 000 de visiteurs ou d’utilisateurs mensuels et étant accessible au public » en Californie. De plus, un système d’IA générative est défini comme :

Une intelligence artificielle capable de générer du contenu synthétique dérivé, y compris du texte, des images, des vidéos et de l’audio, qui imite la structure et les caractéristiques des données d’entraînement du système.

La loi définit également « intelligence artificielle » comme :

Un système basé sur des machines ou conçu qui varie selon son niveau d’autonomie et qui peut, pour des objectifs explicites ou implicites, déduire à partir de l’entrée qu’il reçoit comment générer des résultats pouvant influencer les environnements physiques ou virtuels.

Les fournisseurs couverts devront se conformer à la loi à compter de la date de son entrée en vigueur, soit le 1er janvier 2026.

Exigences pour les Fournisseurs Couvert

Les exigences de transparence de la loi exigeront que les fournisseurs couverts fassent des divulgations concernant l’utilisation des systèmes d’IA générative. Tout d’abord, ils devront mettre à disposition—sans frais pour l’utilisateur—des outils de détection de l’IA permettant aux utilisateurs d’évaluer si le contenu image, vidéo ou audio a été créé ou modifié à l’aide d’un système d’IA générative. Sous réserve de certaines exigences techniques et protections de la vie privée, ces outils devront également fournir des données de provenance du système concernant le contenu, afin de permettre aux utilisateurs de vérifier les dispositifs, systèmes ou services utilisés pour générer ce contenu et son authenticité.

En outre, les fournisseurs couverts devront fournir aux utilisateurs à la fois des divulgations latentes dans le contenu généré par l’IA et une option d’inclure une divulgation manifeste dans ce contenu. Les divulgations manifestes—c’est-à-dire les divulgations sur le contenu généré par l’IA qui sont facilement perçues, comprises ou reconnues par une personne naturelle—devront identifier le contenu comme étant généré par l’IA de manière claire, visible, appropriée et permanente. Les divulgations latentes—celles qui ne sont pas manifestes, mais qui sont présentes dans les métadonnées du contenu généré par l’IA—devront transmettre (dans la mesure où cela est techniquement faisable et raisonnable, soit directement, soit par le biais d’un lien vers un site Web permanent) le nom du fournisseur couvert, le nom et le numéro de version du système d’IA générative, la date et l’heure de la création ou de la modification du contenu, ainsi qu’un identifiant unique. Les divulgations latentes doivent également être détectables par l’outil de détection de l’IA, conformément aux normes industrielles largement acceptées, et doivent être soit permanentes, soit extraordinairement difficiles à retirer.

Enfin, les fournisseurs couverts qui concèdent sous licence leurs systèmes d’IA générative à des tiers devront s’assurer que les licenciés respectent ces exigences de divulgation. Si les fournisseurs couverts savent que des licenciés tiers ne sont pas en mesure d’inclure de telles divulgations, ils devront révoquer leurs licences dans un délai de 96 heures.

La loi sera appliquée par le procureur général de Californie, un avocat de la ville ou un conseiller de comté, et prévoit des pénalités civiles de 5 000 dollars par jour si un fournisseur couvert est reconnu en violation.

Conclusions pour les Parties Prenantes Concernées

La Californie rejoint le Colorado, Utah et Illinois dans l’exigence de transparence concernant l’utilisation de l’IA. Cependant, contrairement à ces autres États, la loi de Californie est la première loi sur l’IA à créer des exigences spécifiques et complètes liées au watermarking. Les entreprises développant des systèmes d’IA générative doivent être conscientes de ces exigences techniques spécifiques alors qu’elles investissent du temps et des ressources dans le développement de technologies relevant de cette loi. Les concédants et licenciés de systèmes d’IA couverts devraient envisager de mettre à jour leurs accords pour répondre à ces exigences contractuelles.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...