Transparence de l’IA : La nouvelle loi californienne et ses exigences

A computer screen displaying data

Une Nouvelle Loi en Californie Exigera la Transparence et les Mesures de Divulgation en matière d’IA

Le 19 septembre 2024, le gouverneur de Californie, Gavin Newsom, a signé la Loi sur la Transparence de l’IA de Californie, qui obligera les fournisseurs de systèmes d’intelligence artificielle (IA) générative à :

  • mettre à disposition un outil de détection de l’IA ;
  • offrir aux utilisateurs d’IA la possibilité d’inclure une divulgation manifeste indiquant que le contenu est généré par l’IA ;
  • inclure une divulgation latente dans le contenu généré par l’IA ;
  • établir un contrat avec les licenciés exigeant qu’ils maintiennent la capacité du système d’IA à inclure une telle divulgation latente dans le contenu créé ou modifié par le système.

La loi sur la transparence de l’IA en Californie entrera en vigueur le 1er janvier 2026, et représente la loi sur le watermarking de l’IA la plus complète et spécifique du pays.

Définitions Clés

Les dispositions de cette loi s’appliquent aux « fournisseurs couverts », qui sont définis comme « une personne qui crée, code ou produit autrement un système d’IA générative ayant plus de 1 000 000 de visiteurs ou d’utilisateurs mensuels et étant accessible au public » en Californie. De plus, un système d’IA générative est défini comme :

Une intelligence artificielle capable de générer du contenu synthétique dérivé, y compris du texte, des images, des vidéos et de l’audio, qui imite la structure et les caractéristiques des données d’entraînement du système.

La loi définit également « intelligence artificielle » comme :

Un système basé sur des machines ou conçu qui varie selon son niveau d’autonomie et qui peut, pour des objectifs explicites ou implicites, déduire à partir de l’entrée qu’il reçoit comment générer des résultats pouvant influencer les environnements physiques ou virtuels.

Les fournisseurs couverts devront se conformer à la loi à compter de la date de son entrée en vigueur, soit le 1er janvier 2026.

Exigences pour les Fournisseurs Couvert

Les exigences de transparence de la loi exigeront que les fournisseurs couverts fassent des divulgations concernant l’utilisation des systèmes d’IA générative. Tout d’abord, ils devront mettre à disposition—sans frais pour l’utilisateur—des outils de détection de l’IA permettant aux utilisateurs d’évaluer si le contenu image, vidéo ou audio a été créé ou modifié à l’aide d’un système d’IA générative. Sous réserve de certaines exigences techniques et protections de la vie privée, ces outils devront également fournir des données de provenance du système concernant le contenu, afin de permettre aux utilisateurs de vérifier les dispositifs, systèmes ou services utilisés pour générer ce contenu et son authenticité.

En outre, les fournisseurs couverts devront fournir aux utilisateurs à la fois des divulgations latentes dans le contenu généré par l’IA et une option d’inclure une divulgation manifeste dans ce contenu. Les divulgations manifestes—c’est-à-dire les divulgations sur le contenu généré par l’IA qui sont facilement perçues, comprises ou reconnues par une personne naturelle—devront identifier le contenu comme étant généré par l’IA de manière claire, visible, appropriée et permanente. Les divulgations latentes—celles qui ne sont pas manifestes, mais qui sont présentes dans les métadonnées du contenu généré par l’IA—devront transmettre (dans la mesure où cela est techniquement faisable et raisonnable, soit directement, soit par le biais d’un lien vers un site Web permanent) le nom du fournisseur couvert, le nom et le numéro de version du système d’IA générative, la date et l’heure de la création ou de la modification du contenu, ainsi qu’un identifiant unique. Les divulgations latentes doivent également être détectables par l’outil de détection de l’IA, conformément aux normes industrielles largement acceptées, et doivent être soit permanentes, soit extraordinairement difficiles à retirer.

Enfin, les fournisseurs couverts qui concèdent sous licence leurs systèmes d’IA générative à des tiers devront s’assurer que les licenciés respectent ces exigences de divulgation. Si les fournisseurs couverts savent que des licenciés tiers ne sont pas en mesure d’inclure de telles divulgations, ils devront révoquer leurs licences dans un délai de 96 heures.

La loi sera appliquée par le procureur général de Californie, un avocat de la ville ou un conseiller de comté, et prévoit des pénalités civiles de 5 000 dollars par jour si un fournisseur couvert est reconnu en violation.

Conclusions pour les Parties Prenantes Concernées

La Californie rejoint le Colorado, Utah et Illinois dans l’exigence de transparence concernant l’utilisation de l’IA. Cependant, contrairement à ces autres États, la loi de Californie est la première loi sur l’IA à créer des exigences spécifiques et complètes liées au watermarking. Les entreprises développant des systèmes d’IA générative doivent être conscientes de ces exigences techniques spécifiques alors qu’elles investissent du temps et des ressources dans le développement de technologies relevant de cette loi. Les concédants et licenciés de systèmes d’IA couverts devraient envisager de mettre à jour leurs accords pour répondre à ces exigences contractuelles.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...