La Californie adopte une loi phare sur la transparence de l’IA : La loi sur la transparence dans l’intelligence artificielle de pointeh2>
Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la loi intitulée b>Senate Bill 53b>, connue sous le nom de b>Transparency in Frontier Artificial Intelligence Actb> (TFAIA). Avec cette législation, la Californie devient le premier État des États-Unis à établir un cadre juridique complet visant à garantir la transparence, la sécurité et la responsabilité dans le développement et le déploiement de modèles d’intelligence artificielle avancés.p>
Portée de la TFAIAh3>
La TFAIA impose de nouvelles exigences de transparence et de gouvernance aux organisations qui développent des systèmes d’IA avancés, appelés « b>modèles de pointeb> ». Bien que la loi s’applique à tous les développeurs de modèles de pointe, certaines obligations ciblent spécifiquement les b>grands développeurs de modèles de pointeb>.p>
Les définitions clés de la TFAIA incluent :p>
-
li>b>Modèle de pointeb> : un modèle de fondation entraîné avec une quantité de puissance de calcul supérieure à 10^26 opérations.li>
li>b>Développeur de pointeb> : une personne ayant entraîné ou initié l’entraînement d’un modèle de pointe.li>
li>b>Grand développeur de pointeb> : un développeur dont les revenus bruts annuels dépassent 500 millions de dollars.li>
ul>
Le Département de la technologie de Californie est également habilité à mettre à jour ces définitions légales à mesure que la technologie évolue.p>
Obligations clésh3>
Cadre d’IA de pointeh4>
Les grands développeurs de modèles de pointe doivent élaborer et publier un b>cadre d’IA de pointeb> qui doit être mis à jour et rendu public au moins une fois par an. Ce cadre doit fournir un compte rendu détaillé de la manière dont les risques catastrophiques sont identifiés, évalués et atténués tout au long du cycle de vie d’un modèle de pointe. Il doit également inclure des documents relatifs aux structures de gouvernance, aux processus d’atténuation, aux pratiques de cybersécurité et à la conformité avec les normes nationales ou internationales.p>
La TFAIA définit le b>risque catastrophiqueb> comme un risque prévisible et matériel pouvant entraîner la mort ou des blessures graves à plus de 50 personnes, ou des dommages matériels dépassant 1 milliard de dollars.p>
Publication d’un rapport de transparenceh4>
Tous les développeurs de modèles de pointe doivent publier un b>rapport de transparenceb> avant ou en même temps que le déploiement d’un nouveau modèle. Ce rapport doit inclure : un mécanisme pour communiquer directement avec le développeur, la date de sortie du modèle, les modalités des résultats que le modèle prend en charge et les usages prévus du modèle, ainsi que toute restriction.p>
Les grands développeurs doivent également fournir une évaluation des risques catastrophiques associés à leur modèle et divulguer la participation de tiers dans le processus d’évaluation des risques.p>
Mécanisme de signalement des incidents de sécurité critiquesh4>
Les développeurs doivent signaler tout incident de sécurité critique au Bureau des services d’urgence dans les 15 jours suivant sa découverte, ou dans les 24 heures si un risque imminent de décès ou de blessure physique grave est identifié.p>
Protection des lanceurs d’alerteh4>
La TFAIA protège les lanceurs d’alerte qui signalent des risques majeurs pour la santé et la sécurité liés aux modèles d’IA de pointe. Les grands développeurs doivent mettre en place un système interne raisonnable pour signaler anonymement les problèmes et fournir des mises à jour mensuelles aux lanceurs d’alerte sur l’avancement de leurs enquêtes.p>
Applicationh3>
La TFAIA autorise le procureur général de Californie à appliquer la loi, avec des pénalités pouvant atteindre 1 million de dollars pour chaque violation. Cette loi entrera en vigueur le 1er janvier 2026.p>
Points clés à retenirh3>
Avec la TFAIA, la Californie a transformé le paysage de la transparence en matière d’IA, passant de normes industrielles volontaires à un régime légal obligatoire. Ce développement pourrait servir de modèle pour d’autres États, en l’absence d’un cadre fédéral complet pour la réglementation de l’IA. Bien qu’il soit encore trop tôt pour évaluer son impact à l’échelle nationale, la TFAIA pourrait contribuer à un patchwork croissant de réglementations étatiques sur l’IA.p>