Loi californienne sur la transparence de l’IA : un modèle à suivre

A blueprint to illustrate the structured approach to AI regulation and compliance.

La loi californienne sur la transparence dans l’IA de pointe adoptée

Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la SB 53 — la loi sur la transparence dans l’intelligence artificielle de pointe (TFAIA). Cette loi fait de la Californie le premier État à réglementer les modèles d’IA de pointe, imposant aux développeurs d’IA de publier des cadres de sécurité et de signaler les incidents critiques de sécurité.

Contexte

La TFAIA succède à la loi SB 1047, qui avait été rejetée l’année précédente en raison de craintes quant à son impact sur l’économie de l’IA en Californie. Après des controverses dans la Silicon Valley, Newsom a annoncé la création d’un groupe de travail pour envisager de nouveaux efforts législatifs, aboutissant à la TFAIA, qui a été adoptée par de larges marges.

Champ d’application de la loi

La TFAIA s’applique aux « grands développeurs de pointe », définis comme ceux ayant entraîné un modèle d’IA de fond avec une puissance de calcul supérieure à 10^26 opérations en entier ou en virgule flottante et des revenus annuels supérieurs à 500 millions de dollars.

La loi vise à réglementer les risques catastrophiques, définis comme ceux pouvant entraîner la mort ou des blessures graves pour plus de 50 personnes ou des dommages matériels dépassant 1 milliard de dollars.

Obligations de transparence

Cadre de l’IA

Les grands développeurs doivent adopter et publier un cadre d’IA de pointe sur leur site web, incluant des évaluations des risques catastrophiques et des mesures de gouvernance. Ce cadre doit être mis à jour annuellement, et toute modification doit être rendue publique dans un délai de 30 jours.

Rapport de transparence

Chaque fois qu’un nouveau modèle est déployé, un rapport de transparence doit être publié, détaillant les utilisations, limitations et évaluations des risques catastrophiques du modèle.

Obligations de signalement

Les développeurs doivent soumettre des résumés de leurs évaluations des risques catastrophiques au Bureau des services d’urgence tous les trois mois.

Signalement des incidents critiques

Les développeurs doivent signaler tout incident critique de sécurité dans les 15 jours et, en cas de risque imminent, dans les 24 heures.

Protection des lanceurs d’alerte

La TFAIA interdit aux développeurs de réprimer les employés qui signalent des activités jugées dangereuses pour la santé publique. Les lanceurs d’alerte peuvent également engager des poursuites civiles contre leur employeur.

Conclusion

La TFAIA représente une avancée majeure dans la réglementation de l’intelligence artificielle, cherchant à établir un équilibre entre innovation et sécurité. Elle pave la voie pour un avenir où l’IA peut être développée de manière responsable tout en protégeant les citoyens et en favorisant la transparence.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...