Transparence de l’IA : La nouvelle loi californienne et ses exigences

A computer screen displaying data

Une Nouvelle Loi en Californie Exigera la Transparence et les Mesures de Divulgation en matière d’IA

Le 19 septembre 2024, le gouverneur de Californie, Gavin Newsom, a signé la Loi sur la Transparence de l’IA de Californie, qui obligera les fournisseurs de systèmes d’intelligence artificielle (IA) générative à :

  • mettre à disposition un outil de détection de l’IA ;
  • offrir aux utilisateurs d’IA la possibilité d’inclure une divulgation manifeste indiquant que le contenu est généré par l’IA ;
  • inclure une divulgation latente dans le contenu généré par l’IA ;
  • établir un contrat avec les licenciés exigeant qu’ils maintiennent la capacité du système d’IA à inclure une telle divulgation latente dans le contenu créé ou modifié par le système.

La loi sur la transparence de l’IA en Californie entrera en vigueur le 1er janvier 2026, et représente la loi sur le watermarking de l’IA la plus complète et spécifique du pays.

Définitions Clés

Les dispositions de cette loi s’appliquent aux « fournisseurs couverts », qui sont définis comme « une personne qui crée, code ou produit autrement un système d’IA générative ayant plus de 1 000 000 de visiteurs ou d’utilisateurs mensuels et étant accessible au public » en Californie. De plus, un système d’IA générative est défini comme :

Une intelligence artificielle capable de générer du contenu synthétique dérivé, y compris du texte, des images, des vidéos et de l’audio, qui imite la structure et les caractéristiques des données d’entraînement du système.

La loi définit également « intelligence artificielle » comme :

Un système basé sur des machines ou conçu qui varie selon son niveau d’autonomie et qui peut, pour des objectifs explicites ou implicites, déduire à partir de l’entrée qu’il reçoit comment générer des résultats pouvant influencer les environnements physiques ou virtuels.

Les fournisseurs couverts devront se conformer à la loi à compter de la date de son entrée en vigueur, soit le 1er janvier 2026.

Exigences pour les Fournisseurs Couvert

Les exigences de transparence de la loi exigeront que les fournisseurs couverts fassent des divulgations concernant l’utilisation des systèmes d’IA générative. Tout d’abord, ils devront mettre à disposition—sans frais pour l’utilisateur—des outils de détection de l’IA permettant aux utilisateurs d’évaluer si le contenu image, vidéo ou audio a été créé ou modifié à l’aide d’un système d’IA générative. Sous réserve de certaines exigences techniques et protections de la vie privée, ces outils devront également fournir des données de provenance du système concernant le contenu, afin de permettre aux utilisateurs de vérifier les dispositifs, systèmes ou services utilisés pour générer ce contenu et son authenticité.

En outre, les fournisseurs couverts devront fournir aux utilisateurs à la fois des divulgations latentes dans le contenu généré par l’IA et une option d’inclure une divulgation manifeste dans ce contenu. Les divulgations manifestes—c’est-à-dire les divulgations sur le contenu généré par l’IA qui sont facilement perçues, comprises ou reconnues par une personne naturelle—devront identifier le contenu comme étant généré par l’IA de manière claire, visible, appropriée et permanente. Les divulgations latentes—celles qui ne sont pas manifestes, mais qui sont présentes dans les métadonnées du contenu généré par l’IA—devront transmettre (dans la mesure où cela est techniquement faisable et raisonnable, soit directement, soit par le biais d’un lien vers un site Web permanent) le nom du fournisseur couvert, le nom et le numéro de version du système d’IA générative, la date et l’heure de la création ou de la modification du contenu, ainsi qu’un identifiant unique. Les divulgations latentes doivent également être détectables par l’outil de détection de l’IA, conformément aux normes industrielles largement acceptées, et doivent être soit permanentes, soit extraordinairement difficiles à retirer.

Enfin, les fournisseurs couverts qui concèdent sous licence leurs systèmes d’IA générative à des tiers devront s’assurer que les licenciés respectent ces exigences de divulgation. Si les fournisseurs couverts savent que des licenciés tiers ne sont pas en mesure d’inclure de telles divulgations, ils devront révoquer leurs licences dans un délai de 96 heures.

La loi sera appliquée par le procureur général de Californie, un avocat de la ville ou un conseiller de comté, et prévoit des pénalités civiles de 5 000 dollars par jour si un fournisseur couvert est reconnu en violation.

Conclusions pour les Parties Prenantes Concernées

La Californie rejoint le Colorado, Utah et Illinois dans l’exigence de transparence concernant l’utilisation de l’IA. Cependant, contrairement à ces autres États, la loi de Californie est la première loi sur l’IA à créer des exigences spécifiques et complètes liées au watermarking. Les entreprises développant des systèmes d’IA générative doivent être conscientes de ces exigences techniques spécifiques alors qu’elles investissent du temps et des ressources dans le développement de technologies relevant de cette loi. Les concédants et licenciés de systèmes d’IA couverts devraient envisager de mettre à jour leurs accords pour répondre à ces exigences contractuelles.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...