Nouvelles lois californiennes sur l’IA : sécurité renforcée et transparence exigée

A shield emblazoned with circuit patterns to signify protection and accountability in AI.

California Met en Place de Nouvelles Lois sur la Sécurité et la Transparence de l’IAh2>

En l’absence d’une législation fédérale complète sur la sécurité de l’intelligence artificielle (IA) et les utilisations permises sur le lieu de travail, les législatures et agences étatiques continuent de promulguer des projets de loi et des règlements imposant des obligations significatives de transparence, de déclaration et de test sur l’utilisation de l’IA par les employeurs. Récemment, la Californie a connu une activité significative avec l’adoption de règlements et de lois qui modifient le paysage légal pour les employeurs dans l’État.p>

Nouvelles Régulations sur l’Utilisation des Technologies de Décision Automatiséeh3>

Le 29 septembre, l’Agence de Protection de la Vie Privée de Californie (CPPA) a annoncé l’approbation de ses règlements tant attendus sur les audits de cybersécurité, les évaluations des risques et la prise de décision automatisée. À partir du 1er janvier 2027, les entreprises devront fournir un b>préavisb> aux Californiens avant de collecter des informations personnelles utilisées par des technologies de décision automatisée (ADMT). Ce préavis devra décrire le but spécifique de l’utilisation de l’ADMT pour prendre des décisions significatives, incluant des décisions liées à l’emploi.p>

Les entreprises doivent également réaliser des b>évaluations de risquesb> avant de commencer toute activité de traitement impliquant un « risque significatif » et rapporter les résultats à la CPPA dès le 1er avril 2028. L’utilisation d’ADMT pour des décisions liées à l’emploi est considérée comme un exemple de « risque significatif ».p>

La Loi sur la Transparence dans l’Intelligence Artificielle de Frontièreh3>

Le 29 septembre, le gouverneur de Californie, Gavin Newsom, a signé la loi SB 53, créant un cadre réglementaire pour standardiser les b>décisions de sécuritéb> pour les développeurs de « modèles de frontière ». Ces modèles sont définis comme ceux entraînés avec une puissance de calcul supérieure à 10^26 opérations en virgule flottante.p>

À partir du 1er janvier 2026, les développeurs de modèles de grande frontière doivent créer et publier sur leurs sites web un b>cadre de sécuritéb> abordant leur approche pour intégrer des normes nationales et internationales. Ils doivent également établir un processus de gouvernance interne pour garantir la mise en œuvre des exigences de cybersécurité.p>

Rapports de Transparenceh3>

Les développeurs doivent publier des b>rapports de transparenceb> avant ou en même temps que la mise à disposition du modèle à un tiers. Ces rapports doivent inclure la date de sortie du modèle, son utilisation prévue et toute restriction de déploiement. De plus, ils doivent notifier l’Office des Services d’Urgence de Californie (OES) de tous les incidents de sécurité critiques dans les 15 jours suivant leur découverte.p>

Protections des Lanceurs d’Alerteh3>

La loi inclut des protections pour encourager les employés à signaler des b>risques catastrophiquesb> sans crainte de représailles. Ces protections s’appliquent aux employés responsables de la gestion des risques associés aux incidents de sécurité critiques. Si un employé peut prouver que son activité protégée a contribué à des actions adverses, la charge de la preuve revient alors à l’employeur.p>

Veto de la Loi « No Robo Bosses Act »h3>

Le 13 octobre, Newsom a opposé son veto à la loi SB 7, qui visait à réguler l’utilisation des systèmes de décision automatisée (ADS) par les employeurs. Le veto a été motivé par l’ambiguïté de la loi et son incapacité à faire la distinction entre les outils d’IA à haut risque et ceux à faible risque.p>

Conclusions pour les Employeursh3>

– b>Revue des ADS Actuellement en Utilisationb> : Bien que la loi SB 7 ait été rejetée, les employeurs doivent s’attendre à une surveillance accrue de l’utilisation des outils d’IA, en particulier ceux utilisés pour les décisions d’embauche ou de licenciement.p>

– b>Connaissance des Protections des Lanceurs d’Alerteb> : Les protections des lanceurs d’alerte de la loi SB 53 pourraient accroître l’exposition des employeurs à des réclamations de représailles.p>

– b>Suivi du Paysage Réglementaire Évolutifb> : La Californie se positionne comme un leader dans le paysage réglementaire, et les employeurs doivent surveiller les développements futurs pour rester conformes.p>

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...