Gouvernance de l’IA : Vers un cadre de protection en Californie

A digital lock symbolizing security in AI governance

Réponse du Sénateur Wiener au Rapport Final des Experts sur le Cadre de Gouvernance de l’IA

Le 17 juin 2025, un groupe de travail conjoint sur les modèles d’IA de pointe en Californie a publié son rapport final, proposant un cadre pour la gouvernance des modèles d’IA dans l’État. Ce groupe de travail a été convoqué par le gouverneur Gavin Newsom après son veto au projet de loi SB 1047 du sénateur Scott Wiener.

Déclaration du Sénateur Wiener

En réponse à la publication du rapport, le sénateur Wiener a déclaré :

“Ce rapport confirme ce que nos esprits les plus brillants en IA ont clairement affirmé : bien que l’IA présente d’énormes opportunités pour offrir un avenir d’abondance et de prospérité partagée, l’immense pouvoir de ces modèles exige que les décideurs agissent rapidement pour établir des garde-fous efficaces. J’apprécie le travail acharné et la réflexion que les membres de ce groupe de travail ont investis dans ce rapport.

“Ces constats interviennent à un moment urgent pour l’avenir de l’IA en Californie et dans le monde entier. De nombreuses entreprises plaident ouvertement pour que le gouvernement fédéral supprime les protections étatiques contre la pornographie de vengeance générée par deepfake, le biais algorithmique dans les décisions de santé, et le vol de propriété intellectuelle — des protections de bon sens sur lesquelles nous pouvons tous nous mettre d’accord. Ces efforts ont suscité des critiques bipartites de la part des dirigeants élus dans les 50 États, car le besoin de garde-fous de base est évident pour quiconque porte attention à l’évolution rapide des capacités de l’IA.

“La Californie a toujours un rôle vital à jouer dans l’établissement de ces garde-fous pour l’IA — nous pouvons établir la norme que d’autres suivront. Les recommandations de ce rapport trouvent un équilibre réfléchi entre la nécessité de protections et le soutien à l’innovation. Mon bureau envisage quelles recommandations intégrer dans le projet de loi SB 53, et j’invite toutes les parties prenantes concernées à s’engager de manière productive dans ce processus.”

Contexte

Le groupe de travail a été convoqué par le gouverneur Newsom à la fin de la dernière session législative pour rassembler des preuves et des recommandations des plus éminents chercheurs et experts en politiques de l’IA de l’État. L’objectif est d’aider les législateurs californiens à développer des garde-fous applicables pour le déploiement de systèmes d’IA avancés. Le groupe de travail se compose de :

  • Dr. Fei-Fei Li, Co-Directrice de l’Institut pour l’Intelligence Artificielle Centrée sur l’Homme de Stanford
  • Dr. Jennifer Tour Chayes, Doyenne de la Faculté de l’Informatique, des Sciences des Données et de la Société à l’UC Berkeley
  • Tino Cuéllar, Président de la Fondation Carnegie pour la Paix Internationale

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...