COMMENTAIRE : Nouvelles lois californiennes sur l’IA qui vous concernent en 2026
À l’approche de 2026, il est déjà clair que 2025 sera retenue comme un tournant : l’année où l’intelligence artificielle (IA) est devenue une partie intégrante de la vie quotidienne. Les outils comme ChatGPT sont désormais omniprésents, les voitures Waymo circulent sur les grandes avenues des villes, et il n’est plus facile de distinguer entre les images ou vidéos réelles et celles générées par l’IA.
Tous les secteurs, que ce soit le divertissement, la finance, la santé, et au-delà, doivent faire face aux implications de cette avancée. L’éducation ne fait pas exception.
Il peut être tentant de se voiler la face, d’attendre que l’IA prenne forme et d’espérer qu’elle ne soit pas aussi importante que ceux qui en tirent profit le disent. Mais qu’on l’accueille ou non, l’IA est là, elle s’accélère, et sa trajectoire sera façonnée par ceux qui sont prêts à s’engager, y compris les éducateurs, les familles et les décideurs.
Les risques et les opportunités
Souvent, les gens sont catégorisés comme « optimistes » ou « pessimistes » de l’IA. La vérité est plus complexe. Je suis les deux.
Je vois un potentiel incroyable — pour les éducateurs de personnaliser l’apprentissage, pour les étudiants d’accéder à du soutien qui semblait auparavant hors de portée, et pour les écoles de fonctionner de manière plus équitable et efficace.
Cependant, je perçois aussi de réels risques, notamment lorsque l’innovation avance plus vite que les garde-fous destinés à protéger le public. Dans leur livre « Governing the Machine », trois experts en politique de l’IA soutiennent que l’adoption généralisée de l’IA dépend de la confiance du public, et que cette confiance se construit par le biais de réglementations réfléchies. Après tout, monter dans un avion ou conduire une voiture sans avoir confiance dans les normes de sécurité qui les régissent serait impensable.
Les lois californiennes sur l’IA
Dans ce contexte, les législateurs californiens ont pris des mesures significatives vers un leadership en matière de politique de l’IA. Bien que loin d’être parfaites, les lois adoptées lors de la session législative de 2025 visent à établir des protections d’intérêt public alors que l’utilisation de l’IA se développe.
Voici un aperçu des lois clés sur l’IA de 2025 :
- SB 53 (Wiener) — Loi sur la transparence des IA de pointe : Exige des développeurs de modèles d’IA « de pointe » à grande échelle de publier des protocoles de sécurité, de signaler des incidents majeurs et de protéger les lanceurs d’alerte. Signée en loi.
- SB 243 (Padilla) — Safeguards de l’IA pour les mineurs : S’applique aux outils d’IA « compagnons » utilisés par des mineurs, imposant des divulgations que les utilisateurs interagissent avec l’IA et exigeant des protections contre le contenu nuisible. Signée en loi.
- SB 11 (Ashby) — IA et répliques numériques : Exige des avertissements lorsque des outils d’IA peuvent générer des images, audio ou vidéo faussement réalistes, et demande aux tribunaux d’examiner les normes d’authentification pour les preuves générées par l’IA. Devenue loi sans la signature du gouverneur.
De plus, deux projets de loi ont été adoptés par la législature mais ont été rejetés par le gouverneur.
Le premier, le LEAD for Kids Act (AB 1064), aurait restreint les chatbots compagnons d’IA susceptibles de promouvoir des comportements autodestructeurs, de la violence ou du contenu sexuel. Bien qu’il ait été conçu pour protéger les enfants, le gouverneur a opposé son veto à ce projet de loi en raison de préoccupations concernant la portée trop large de son langage. Cette décision met en lumière la complexité de la législation relative à une technologie en rapide évolution : comment protéger les jeunes sans créer de règles trop larges qui pourraient avoir des conséquences inattendues.
Un autre, le No Robo Bosses Act (SB 7), aurait exigé une divulgation lorsque l’IA est utilisée dans les décisions d’embauche ou de discipline et aurait interdit la dépendance exclusive aux systèmes automatisés. Le gouverneur a opposé son veto à ce projet de loi, qualifiant les réglementations proposées de « non ciblées » et d’incapables d’offrir des solutions précises pour les risques posés par l’IA au travail. Il est prévu que les législateurs révisent ce projet de loi cette année pour répondre à ses préoccupations exprimées.
Conclusion
À l’approche de la session de 2026, nous devrions encourager les législateurs à donner la priorité à des politiques sur l’IA centrées sur les étudiants, mettant l’accent sur la sécurité, la transparence et le soutien aux éducateurs. Les préoccupations auxquelles sont confrontées les écoles vont bien au-delà du plagiat ou de la tricherie ; elles incluent la sécurité numérique, l’érosion des compétences de pensée critique (décharge cognitive), et comment préparer les jeunes à un avenir façonné par l’IA.
L’IA n’attend pas que nous rattrapions notre retard, et nos politiques ne devraient pas non plus le faire. En raison de l’action fédérale limitée, la Californie est sous les projecteurs. Dans la quatrième économie mondiale, le leadership n’est pas une option ; c’est une responsabilité, et nos jeunes ne peuvent pas se permettre que les leaders éducatifs restent sur la touche.