La loi californienne sur la transparence dans l’IA de pointe adoptée
Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la SB 53 — la loi sur la transparence dans l’intelligence artificielle de pointe (TFAIA). Cette loi fait de la Californie le premier État à réglementer les modèles d’IA de pointe, imposant aux développeurs d’IA de publier des cadres de sécurité et de signaler les incidents critiques de sécurité.
Contexte
La TFAIA succède à la loi SB 1047, qui avait été rejetée l’année précédente en raison de craintes quant à son impact sur l’économie de l’IA en Californie. Après des controverses dans la Silicon Valley, Newsom a annoncé la création d’un groupe de travail pour envisager de nouveaux efforts législatifs, aboutissant à la TFAIA, qui a été adoptée par de larges marges.
Champ d’application de la loi
La TFAIA s’applique aux « grands développeurs de pointe », définis comme ceux ayant entraîné un modèle d’IA de fond avec une puissance de calcul supérieure à 10^26 opérations en entier ou en virgule flottante et des revenus annuels supérieurs à 500 millions de dollars.
La loi vise à réglementer les risques catastrophiques, définis comme ceux pouvant entraîner la mort ou des blessures graves pour plus de 50 personnes ou des dommages matériels dépassant 1 milliard de dollars.
Obligations de transparence
Cadre de l’IA
Les grands développeurs doivent adopter et publier un cadre d’IA de pointe sur leur site web, incluant des évaluations des risques catastrophiques et des mesures de gouvernance. Ce cadre doit être mis à jour annuellement, et toute modification doit être rendue publique dans un délai de 30 jours.
Rapport de transparence
Chaque fois qu’un nouveau modèle est déployé, un rapport de transparence doit être publié, détaillant les utilisations, limitations et évaluations des risques catastrophiques du modèle.
Obligations de signalement
Les développeurs doivent soumettre des résumés de leurs évaluations des risques catastrophiques au Bureau des services d’urgence tous les trois mois.
Signalement des incidents critiques
Les développeurs doivent signaler tout incident critique de sécurité dans les 15 jours et, en cas de risque imminent, dans les 24 heures.
Protection des lanceurs d’alerte
La TFAIA interdit aux développeurs de réprimer les employés qui signalent des activités jugées dangereuses pour la santé publique. Les lanceurs d’alerte peuvent également engager des poursuites civiles contre leur employeur.
Conclusion
La TFAIA représente une avancée majeure dans la réglementation de l’intelligence artificielle, cherchant à établir un équilibre entre innovation et sécurité. Elle pave la voie pour un avenir où l’IA peut être développée de manière responsable tout en protégeant les citoyens et en favorisant la transparence.