Nouvelles normes de transparence pour l’intelligence artificielle en Californie

A transparent shield to symbolize protection and clarity in AI safety measures.

Transparence dans la Loi sur l’Intelligence Artificielle Avancée (SB-53)

Le 29 septembre, le gouverneur de Californie, Gavin Newsom, a signé la loi « Transparency in Frontier Artificial Intelligence Act » (« TFAIA »), faisant de la Californie le premier État à exiger des divulgations de sécurité standardisées et publiques de la part des développeurs de modèles d’intelligence artificielle (IA) avancés.

Face à l’absence d’une législation fédérale complète sur la sécurité de l’IA, la Californie s’affirme parmi un nombre croissant d’États cherchant à diriger les questions de sécurité liées à l’IA. En effet, le Colorado a été le premier État à adopter une loi large sur l’IA imposant des pratiques de divulgation, de gestion des risques et de transparence aux développeurs de systèmes d’IA à haut risque, bien que sa mise en œuvre ait été retardée jusqu’en juin 2026.

Vue d’ensemble de TFAIA

TFAIA exige que les développeurs divulguent comment ils gèrent les risques de sécurité et introduit de nouveaux mécanismes de transparence, de responsabilité et d’application. Les développeurs ne respectant pas la loi lors de son entrée en vigueur en janvier 2026 s’exposent à des pénalités civiles pouvant atteindre 1 000 000 $ par violation, appliquées par le procureur général de Californie.

À qui cela s’applique

TFAIA s’applique aux développeurs de modèles d’IA avancés. La loi définit un « modèle avancé » comme un modèle de base entraîné avec une puissance de calcul supérieure à 10^26 opérations entières ou à virgule flottante (FLOPs). Ce seuil est conforme à l’Ordonnance Exécutive de l’IA de 2023 et dépasse le seuil de la Loi sur l’IA de l’UE, qui est de 10^25 FLOPs.

La loi impose des exigences de transparence et de responsabilité supplémentaires aux « grands développeurs avancés » dont le revenu annuel, y compris les affiliés, a dépassé 500 000 000 $ l’année précédente.

Publication d’un cadre général pour l’IA avancée

Conformément aux exigences de TFAIA, les grands développeurs doivent publier un cadre de sécurité général accessible qui montre comment le développeur intègre les normes nationales, internationales et les meilleures pratiques consensuelles de l’industrie. Ce cadre doit également expliquer comment le développeur évalue les capacités du modèle avancé pouvant poser un risque catastrophique et comment il atténue ces risques, y compris par l’utilisation de tiers.

Renforcement de la transparence lors du déploiement

TFAIA exige que, lors de la publication d’un nouveau modèle ou d’un modèle substantiellement modifié, le développeur publie un rapport de transparence identifiant la date de sortie du modèle, les modalités (comme les entrées et sorties texte, image, audio ou vidéo), les usages prévus et toute restriction sur le déploiement.

Signalement des incidents de sécurité critiques

Les développeurs doivent notifier le Bureau des Services d’Urgence de Californie de tout « incident de sécurité critique » dans les 15 jours suivant sa découverte. Si l’incident présente un risque imminent de mort ou de blessure grave, la divulgation doit se faire dans les 24 heures.

Protection des lanceurs d’alerte

La loi établit des protections solides pour les lanceurs d’alerte chez les développeurs avancés, interdisant les représailles et exigeant l’établissement de canaux de signalement anonymes.

Consortium « CalCompute »

TFAIA prévoit l’établissement d’un consortium pour concevoir un cluster de calcul public soutenu par l’État—« CalCompute »—destiné à fournir aux chercheurs et universités des capacités de calcul avancées pour soutenir l’innovation en IA de manière sécurisée et équitable.

Mises à jour continues de la loi

La loi reconnaît que le domaine de l’IA évolue constamment et qu’il en va de même pour la loi. Elle mandate le Département de Technologie de Californie pour examiner annuellement les définitions de « modèle avancé », « développeur avancé » et « grand développeur avancé ».

Avenir de la réglementation sur la sécurité de l’IA

D’autres lois spécifiques à l’IA entreront en vigueur en Californie entre 2025 et 2026, y compris des mandats de transparence qui nécessiteront des développeurs de divulguer des données d’entraînement et d’incorporer des filigranes invisibles dans le contenu généré par l’IA.

En l’absence d’un engagement fédéral plus direct, la législation sur l’IA au niveau des États devrait se multiplier, avec plus de 100 projets de loi adoptés lors de la dernière session législative.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...