La Californie adopte une loi phare sur la transparence de l’IA : La loi sur la transparence dans l’intelligence artificielle de pointeh2>

Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la loi intitulée b>Senate Bill 53b>, connue sous le nom de b>Transparency in Frontier Artificial Intelligence Actb> (TFAIA). Avec cette législation, la Californie devient le premier État des États-Unis à établir un cadre juridique complet visant à garantir la transparence, la sécurité et la responsabilité dans le développement et le déploiement de modèles d’intelligence artificielle avancés.p>

Portée de la TFAIAh3>

La TFAIA impose de nouvelles exigences de transparence et de gouvernance aux organisations qui développent des systèmes d’IA avancés, appelés « b>modèles de pointeb> ». Bien que la loi s’applique à tous les développeurs de modèles de pointe, certaines obligations ciblent spécifiquement les b>grands développeurs de modèles de pointeb>.p>

Les définitions clés de la TFAIA incluent :p>

    li>b>Modèle de pointeb> : un modèle de fondation entraîné avec une quantité de puissance de calcul supérieure à 10^26 opérations.li>
    li>b>Développeur de pointeb> : une personne ayant entraîné ou initié l’entraînement d’un modèle de pointe.li>
    li>b>Grand développeur de pointeb> : un développeur dont les revenus bruts annuels dépassent 500 millions de dollars.li>
    ul>

    Le Département de la technologie de Californie est également habilité à mettre à jour ces définitions légales à mesure que la technologie évolue.p>

    Obligations clésh3>

    Cadre d’IA de pointeh4>

    Les grands développeurs de modèles de pointe doivent élaborer et publier un b>cadre d’IA de pointeb> qui doit être mis à jour et rendu public au moins une fois par an. Ce cadre doit fournir un compte rendu détaillé de la manière dont les risques catastrophiques sont identifiés, évalués et atténués tout au long du cycle de vie d’un modèle de pointe. Il doit également inclure des documents relatifs aux structures de gouvernance, aux processus d’atténuation, aux pratiques de cybersécurité et à la conformité avec les normes nationales ou internationales.p>

    La TFAIA définit le b>risque catastrophiqueb> comme un risque prévisible et matériel pouvant entraîner la mort ou des blessures graves à plus de 50 personnes, ou des dommages matériels dépassant 1 milliard de dollars.p>

    Publication d’un rapport de transparenceh4>

    Tous les développeurs de modèles de pointe doivent publier un b>rapport de transparenceb> avant ou en même temps que le déploiement d’un nouveau modèle. Ce rapport doit inclure : un mécanisme pour communiquer directement avec le développeur, la date de sortie du modèle, les modalités des résultats que le modèle prend en charge et les usages prévus du modèle, ainsi que toute restriction.p>

    Les grands développeurs doivent également fournir une évaluation des risques catastrophiques associés à leur modèle et divulguer la participation de tiers dans le processus d’évaluation des risques.p>

    Mécanisme de signalement des incidents de sécurité critiquesh4>

    Les développeurs doivent signaler tout incident de sécurité critique au Bureau des services d’urgence dans les 15 jours suivant sa découverte, ou dans les 24 heures si un risque imminent de décès ou de blessure physique grave est identifié.p>

    Protection des lanceurs d’alerteh4>

    La TFAIA protège les lanceurs d’alerte qui signalent des risques majeurs pour la santé et la sécurité liés aux modèles d’IA de pointe. Les grands développeurs doivent mettre en place un système interne raisonnable pour signaler anonymement les problèmes et fournir des mises à jour mensuelles aux lanceurs d’alerte sur l’avancement de leurs enquêtes.p>

    Applicationh3>

    La TFAIA autorise le procureur général de Californie à appliquer la loi, avec des pénalités pouvant atteindre 1 million de dollars pour chaque violation. Cette loi entrera en vigueur le 1er janvier 2026.p>

    Points clés à retenirh3>

    Avec la TFAIA, la Californie a transformé le paysage de la transparence en matière d’IA, passant de normes industrielles volontaires à un régime légal obligatoire. Ce développement pourrait servir de modèle pour d’autres États, en l’absence d’un cadre fédéral complet pour la réglementation de l’IA. Bien qu’il soit encore trop tôt pour évaluer son impact à l’échelle nationale, la TFAIA pourrait contribuer à un patchwork croissant de réglementations étatiques sur l’IA.p>

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...