Loi californienne sur l’IA : un pas vers la transparence obligatoire

A blueprint of an AI system

La loi phare sur l’IA en Californie exige la transparence des principaux développeurs d’IA

Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la loi Senate Bill 53, également connue sous le nom de Transparency in Frontier Artificial Intelligence Act (TFAIA). Cette législation marque la plus importante régulation des développeurs d’IA en Californie à ce jour.

La Californie est le premier État du pays à exiger que les grands développeurs d’IA publient un cadre de sécurité qui intègre des normes de sécurité largement acceptées et explique la capacité d’un modèle à poser et à atténuer des risques catastrophiques. Pour la première fois, la loi oblige également les développeurs de modèles à publier des rapports de transparence sur les utilisations et les restrictions prévues d’un modèle, et elle impose aux grands développeurs de résumer leurs évaluations des risques catastrophiques d’un modèle.

Les exigences de la TFAIA

La TFAIA impose des exigences réglementaires importantes aux développeurs d’IA de pointe et aux grands développeurs d’IA, en exigeant une transparence à plusieurs niveaux :

  • Rapports de transparence : Les développeurs doivent publier des rapports sur l’utilisation et les restrictions de leurs modèles.
  • Incidents de sécurité critiques : Les développeurs doivent signaler à l’État les incidents de sécurité critiques.
  • Protection des lanceurs d’alerte : La loi établit des protections pour les employés des développeurs d’IA.
  • Infrastructure publique : La loi promeut la création d’une infrastructure publique pour soutenir la recherche en IA.

Applicabilité de la TFAIA

La TFAIA s’applique à un petit mais croissant nombre d’entreprises, définies comme des développeurs de pointe ayant formé ou formant un modèle de pointe. Les exigences supplémentaires s’appliquent également aux grands développeurs de pointe, c’est-à-dire ceux ayant un revenu brut annuel supérieur à 500 millions de dollars. Le modèle de pointe est défini par la puissance de calcul utilisée pour l’entraîner, fixée à plus de 10^26 opérations.

Actuellement, peu de modèles atteignent ce seuil technique élevé, mais la tendance suggère qu’un nombre croissant de modèles le fera dans un avenir proche.

Risques catastrophiques définis

La loi définit les risques catastrophiques comme tout incident causant la mort ou des blessures graves à plus de 50 personnes, ou des dommages dépassant 1 milliard de dollars, impliquant un modèle de pointe. Ces incidents peuvent inclure la création ou la libération d’armes de destruction massive, des cyberattaques ou des comportements criminels.

Contexte et implications

La décision de Californie d’imposer une réglementation au niveau de l’État s’oppose aux récentes actions fédérales. L’État, avec la plus grande économie et le plus grand nombre d’entreprises d’IA, adopte une direction différente de celle du gouvernement fédéral, ce qui pourrait compliquer les efforts de conformité de l’industrie.

La TFAIA pourrait servir de modèle pour d’autres États et juridictions, avec des initiatives similaires déjà en cours dans des États comme New York et le Colorado, qui cherchent à réglementer les systèmes d’IA en fonction des risques qu’ils présentent.

Prochaines étapes pour les développeurs

Les développeurs d’IA de pointe devraient examiner la TFAIA et consulter des conseillers juridiques pour évaluer l’impact de la loi sur leurs opérations. Ils peuvent chercher à :

  • Évaluer leurs pratiques de transparence actuelles.
  • Rédiger des cadres d’IA de pointe et des rapports de transparence.
  • Mettre en place des processus pour signaler les incidents de sécurité critiques.
  • Actualiser les politiques de protection des lanceurs d’alerte.

La TFAIA représente un tournant dans la régulation des technologies d’IA, et son impact sera suivi de près tant au niveau national qu’international.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...