Nouvelles normes de transparence pour l’intelligence artificielle en Californie

A transparent shield to symbolize protection and clarity in AI safety measures.

Transparence dans la Loi sur l’Intelligence Artificielle Avancée (SB-53)

Le 29 septembre, le gouverneur de Californie, Gavin Newsom, a signé la loi « Transparency in Frontier Artificial Intelligence Act » (« TFAIA »), faisant de la Californie le premier État à exiger des divulgations de sécurité standardisées et publiques de la part des développeurs de modèles d’intelligence artificielle (IA) avancés.

Face à l’absence d’une législation fédérale complète sur la sécurité de l’IA, la Californie s’affirme parmi un nombre croissant d’États cherchant à diriger les questions de sécurité liées à l’IA. En effet, le Colorado a été le premier État à adopter une loi large sur l’IA imposant des pratiques de divulgation, de gestion des risques et de transparence aux développeurs de systèmes d’IA à haut risque, bien que sa mise en œuvre ait été retardée jusqu’en juin 2026.

Vue d’ensemble de TFAIA

TFAIA exige que les développeurs divulguent comment ils gèrent les risques de sécurité et introduit de nouveaux mécanismes de transparence, de responsabilité et d’application. Les développeurs ne respectant pas la loi lors de son entrée en vigueur en janvier 2026 s’exposent à des pénalités civiles pouvant atteindre 1 000 000 $ par violation, appliquées par le procureur général de Californie.

À qui cela s’applique

TFAIA s’applique aux développeurs de modèles d’IA avancés. La loi définit un « modèle avancé » comme un modèle de base entraîné avec une puissance de calcul supérieure à 10^26 opérations entières ou à virgule flottante (FLOPs). Ce seuil est conforme à l’Ordonnance Exécutive de l’IA de 2023 et dépasse le seuil de la Loi sur l’IA de l’UE, qui est de 10^25 FLOPs.

La loi impose des exigences de transparence et de responsabilité supplémentaires aux « grands développeurs avancés » dont le revenu annuel, y compris les affiliés, a dépassé 500 000 000 $ l’année précédente.

Publication d’un cadre général pour l’IA avancée

Conformément aux exigences de TFAIA, les grands développeurs doivent publier un cadre de sécurité général accessible qui montre comment le développeur intègre les normes nationales, internationales et les meilleures pratiques consensuelles de l’industrie. Ce cadre doit également expliquer comment le développeur évalue les capacités du modèle avancé pouvant poser un risque catastrophique et comment il atténue ces risques, y compris par l’utilisation de tiers.

Renforcement de la transparence lors du déploiement

TFAIA exige que, lors de la publication d’un nouveau modèle ou d’un modèle substantiellement modifié, le développeur publie un rapport de transparence identifiant la date de sortie du modèle, les modalités (comme les entrées et sorties texte, image, audio ou vidéo), les usages prévus et toute restriction sur le déploiement.

Signalement des incidents de sécurité critiques

Les développeurs doivent notifier le Bureau des Services d’Urgence de Californie de tout « incident de sécurité critique » dans les 15 jours suivant sa découverte. Si l’incident présente un risque imminent de mort ou de blessure grave, la divulgation doit se faire dans les 24 heures.

Protection des lanceurs d’alerte

La loi établit des protections solides pour les lanceurs d’alerte chez les développeurs avancés, interdisant les représailles et exigeant l’établissement de canaux de signalement anonymes.

Consortium « CalCompute »

TFAIA prévoit l’établissement d’un consortium pour concevoir un cluster de calcul public soutenu par l’État—« CalCompute »—destiné à fournir aux chercheurs et universités des capacités de calcul avancées pour soutenir l’innovation en IA de manière sécurisée et équitable.

Mises à jour continues de la loi

La loi reconnaît que le domaine de l’IA évolue constamment et qu’il en va de même pour la loi. Elle mandate le Département de Technologie de Californie pour examiner annuellement les définitions de « modèle avancé », « développeur avancé » et « grand développeur avancé ».

Avenir de la réglementation sur la sécurité de l’IA

D’autres lois spécifiques à l’IA entreront en vigueur en Californie entre 2025 et 2026, y compris des mandats de transparence qui nécessiteront des développeurs de divulguer des données d’entraînement et d’incorporer des filigranes invisibles dans le contenu généré par l’IA.

En l’absence d’un engagement fédéral plus direct, la législation sur l’IA au niveau des États devrait se multiplier, avec plus de 100 projets de loi adoptés lors de la dernière session législative.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...