Loi californienne sur la transparence de l’IA : un modèle à suivre

A blueprint to illustrate the structured approach to AI regulation and compliance.

La loi californienne sur la transparence dans l’IA de pointe adoptée

Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la SB 53 — la loi sur la transparence dans l’intelligence artificielle de pointe (TFAIA). Cette loi fait de la Californie le premier État à réglementer les modèles d’IA de pointe, imposant aux développeurs d’IA de publier des cadres de sécurité et de signaler les incidents critiques de sécurité.

Contexte

La TFAIA succède à la loi SB 1047, qui avait été rejetée l’année précédente en raison de craintes quant à son impact sur l’économie de l’IA en Californie. Après des controverses dans la Silicon Valley, Newsom a annoncé la création d’un groupe de travail pour envisager de nouveaux efforts législatifs, aboutissant à la TFAIA, qui a été adoptée par de larges marges.

Champ d’application de la loi

La TFAIA s’applique aux « grands développeurs de pointe », définis comme ceux ayant entraîné un modèle d’IA de fond avec une puissance de calcul supérieure à 10^26 opérations en entier ou en virgule flottante et des revenus annuels supérieurs à 500 millions de dollars.

La loi vise à réglementer les risques catastrophiques, définis comme ceux pouvant entraîner la mort ou des blessures graves pour plus de 50 personnes ou des dommages matériels dépassant 1 milliard de dollars.

Obligations de transparence

Cadre de l’IA

Les grands développeurs doivent adopter et publier un cadre d’IA de pointe sur leur site web, incluant des évaluations des risques catastrophiques et des mesures de gouvernance. Ce cadre doit être mis à jour annuellement, et toute modification doit être rendue publique dans un délai de 30 jours.

Rapport de transparence

Chaque fois qu’un nouveau modèle est déployé, un rapport de transparence doit être publié, détaillant les utilisations, limitations et évaluations des risques catastrophiques du modèle.

Obligations de signalement

Les développeurs doivent soumettre des résumés de leurs évaluations des risques catastrophiques au Bureau des services d’urgence tous les trois mois.

Signalement des incidents critiques

Les développeurs doivent signaler tout incident critique de sécurité dans les 15 jours et, en cas de risque imminent, dans les 24 heures.

Protection des lanceurs d’alerte

La TFAIA interdit aux développeurs de réprimer les employés qui signalent des activités jugées dangereuses pour la santé publique. Les lanceurs d’alerte peuvent également engager des poursuites civiles contre leur employeur.

Conclusion

La TFAIA représente une avancée majeure dans la réglementation de l’intelligence artificielle, cherchant à établir un équilibre entre innovation et sécurité. Elle pave la voie pour un avenir où l’IA peut être développée de manière responsable tout en protégeant les citoyens et en favorisant la transparence.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...