Amendements à la loi californienne sur la transparence de l’IA : vers une régulation des plateformes sociales

A digital lock

La Loi sur la Transparence de l’IA en Californie (CAITA) pourrait être modifiée pour réglementer les plateformes de médias sociaux

La Californie a récemment adopté la Loi sur la Transparence de l’IA (CAITA), signée par le gouverneur Gavin Newsom le 19 septembre 2024, et qui entrera en vigueur le 1er janvier 2026. Toutefois, un amendement potentiel, le projet de loi AB 853, pourrait avoir des implications considérables.

Contexte de la CAITA

À l’heure actuelle, la CAITA s’applique uniquement à certains fournisseurs de systèmes d’intelligence artificielle générative (GenAI) accessibles au public. La version amendée de la CAITA stipule désormais que les grandes plateformes en ligne et les fabricants de dispositifs de capture doivent également se conformer à certaines exigences de préservation et de divulgation des données.

Le projet de loi AB 853 définit les grandes plateformes en ligne comme des plateformes de médias sociaux ayant au moins deux millions d’utilisateurs mensuels au cours des douze mois précédents. Les dispositifs de capture sont définis comme des appareils capables d’enregistrer des photographies, de l’audio ou du contenu vidéo.

Les exigences de la CAITA actuelle

La version actuelle de la CAITA est essentiellement une loi de notification qui exige des entreprises produisant des sorties GenAI qu’elles incluent des divulgations latentes dans ces sorties. Une divulgation latente est définie comme étant « présente mais non manifeste ». Les entreprises couvertes doivent offrir aux utilisateurs la possibilité d’inclure des divulgations manifestes, qui sont facilement perceptibles et compréhensibles.

La CAITA actuelle s’applique à toute personne ou entreprise qui crée, code ou produit un système GenAI ayant plus d’un million d’utilisateurs mensuels et accessible publiquement en Californie. Les exigences de préservation des données et de divulgation ne changent pas avec l’amendement proposé.

Amendements proposés à la CAITA

Le projet de loi amendé exige que les grandes plateformes en ligne détectent et conservent les données de provenance, semblables à un enregistrement de chaîne de possession pour les données d’entraînement, conformément aux normes de l’industrie. Les fabricants de dispositifs de capture devront, dans la mesure du possible, permettre aux utilisateurs d’inclure des informations de divulgation latente spécifiées dans le contenu qu’ils capturent ou modifient.

Ces exigences sont plus détaillées et donc potentiellement plus lourdes que celles de la loi existante. Cependant, comme la CAITA originale, les amendements imposeraient toujours aux entités couvertes de fournir des outils de détection de l’IA gratuitement aux utilisateurs.

Impact potentiel des exigences de préservation des données de provenance

Contrairement à la version actuelle de la CAITA, l’amendement proposé exigerait des grandes plateformes en ligne qu’elles stockent les données de provenance de manière inspectable par les utilisateurs. Cela pourrait entraîner des coûts opérationnels pour le stockage, la gestion et la sécurité des données.

Les entités réglementées doivent s’assurer que les divulgations latentes dans les sorties générées par l’IA sont préservées de manière identifiable par un outil de détection de l’IA. Il y aura également un coût associé à cette exigence.

Bien que la CAITA exige la conservation de données spécifiques, elle interdit également aux fournisseurs couverts de collecter ou de conserver certaines informations personnelles des utilisateurs.

Conséquences de la CAITA, qu’elle soit amendée ou non

Que le gouverneur Newsom signe ou non le projet de loi AB 853, l’impact le plus significatif de la CAITA résidera dans les pénalités imposées aux entreprises pour avoir supprimé ou échoué à maintenir les données de provenance. Ces pénalités s’élèvent à 5 000 $ par violation et aux frais d’avocat pour le plaignant gagnant.

Ces exigences pourraient contribuer à lutter contre la désinformation, mais pourraient également créer un faux sentiment de sécurité, permettant à des acteurs malveillants d’exploiter la confiance des utilisateurs dans ces outils.

Calendrier de mise en œuvre d’AB 853

Provisions de CAITA Date d’entrée en vigueur
Dispositions générales 2 août 2026
Dispositions pour les grandes plateformes en ligne 1er janvier 2027
Dispositions pour les fabricants de dispositifs de capture 1er janvier 2028

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...