Transparence dans la Loi sur l’Intelligence Artificielle Avancée (SB-53)
Le 29 septembre, le gouverneur de Californie, Gavin Newsom, a signé la loi « Transparency in Frontier Artificial Intelligence Act » (« TFAIA »), faisant de la Californie le premier État à exiger des divulgations de sécurité standardisées et publiques de la part des développeurs de modèles d’intelligence artificielle (IA) avancés.
Face à l’absence d’une législation fédérale complète sur la sécurité de l’IA, la Californie s’affirme parmi un nombre croissant d’États cherchant à diriger les questions de sécurité liées à l’IA. En effet, le Colorado a été le premier État à adopter une loi large sur l’IA imposant des pratiques de divulgation, de gestion des risques et de transparence aux développeurs de systèmes d’IA à haut risque, bien que sa mise en œuvre ait été retardée jusqu’en juin 2026.
Vue d’ensemble de TFAIA
TFAIA exige que les développeurs divulguent comment ils gèrent les risques de sécurité et introduit de nouveaux mécanismes de transparence, de responsabilité et d’application. Les développeurs ne respectant pas la loi lors de son entrée en vigueur en janvier 2026 s’exposent à des pénalités civiles pouvant atteindre 1 000 000 $ par violation, appliquées par le procureur général de Californie.
À qui cela s’applique
TFAIA s’applique aux développeurs de modèles d’IA avancés. La loi définit un « modèle avancé » comme un modèle de base entraîné avec une puissance de calcul supérieure à 10^26 opérations entières ou à virgule flottante (FLOPs). Ce seuil est conforme à l’Ordonnance Exécutive de l’IA de 2023 et dépasse le seuil de la Loi sur l’IA de l’UE, qui est de 10^25 FLOPs.
La loi impose des exigences de transparence et de responsabilité supplémentaires aux « grands développeurs avancés » dont le revenu annuel, y compris les affiliés, a dépassé 500 000 000 $ l’année précédente.
Publication d’un cadre général pour l’IA avancée
Conformément aux exigences de TFAIA, les grands développeurs doivent publier un cadre de sécurité général accessible qui montre comment le développeur intègre les normes nationales, internationales et les meilleures pratiques consensuelles de l’industrie. Ce cadre doit également expliquer comment le développeur évalue les capacités du modèle avancé pouvant poser un risque catastrophique et comment il atténue ces risques, y compris par l’utilisation de tiers.
Renforcement de la transparence lors du déploiement
TFAIA exige que, lors de la publication d’un nouveau modèle ou d’un modèle substantiellement modifié, le développeur publie un rapport de transparence identifiant la date de sortie du modèle, les modalités (comme les entrées et sorties texte, image, audio ou vidéo), les usages prévus et toute restriction sur le déploiement.
Signalement des incidents de sécurité critiques
Les développeurs doivent notifier le Bureau des Services d’Urgence de Californie de tout « incident de sécurité critique » dans les 15 jours suivant sa découverte. Si l’incident présente un risque imminent de mort ou de blessure grave, la divulgation doit se faire dans les 24 heures.
Protection des lanceurs d’alerte
La loi établit des protections solides pour les lanceurs d’alerte chez les développeurs avancés, interdisant les représailles et exigeant l’établissement de canaux de signalement anonymes.
Consortium « CalCompute »
TFAIA prévoit l’établissement d’un consortium pour concevoir un cluster de calcul public soutenu par l’État—« CalCompute »—destiné à fournir aux chercheurs et universités des capacités de calcul avancées pour soutenir l’innovation en IA de manière sécurisée et équitable.
Mises à jour continues de la loi
La loi reconnaît que le domaine de l’IA évolue constamment et qu’il en va de même pour la loi. Elle mandate le Département de Technologie de Californie pour examiner annuellement les définitions de « modèle avancé », « développeur avancé » et « grand développeur avancé ».
Avenir de la réglementation sur la sécurité de l’IA
D’autres lois spécifiques à l’IA entreront en vigueur en Californie entre 2025 et 2026, y compris des mandats de transparence qui nécessiteront des développeurs de divulguer des données d’entraînement et d’incorporer des filigranes invisibles dans le contenu généré par l’IA.
En l’absence d’un engagement fédéral plus direct, la législation sur l’IA au niveau des États devrait se multiplier, avec plus de 100 projets de loi adoptés lors de la dernière session législative.