La loi californienne réglementant les grandes entreprises d’IA signée
Le gouverneur de Californie, Gavin Newsom, a signé le Transparency in Frontier Artificial Intelligence Act, également connu sous le nom de SB 53, en début d’après-midi lundi.
Cette loi, la première du genre aux États-Unis, impose de nouvelles réglementations spécifiques à l’IA aux principaux acteurs de l’industrie, leur demandant de respecter des exigences de transparence et de signaler les incidents liés à la sécurité en matière d’IA.
Un cadre pour la sécurité des systèmes d’IA
Bien que plusieurs États aient récemment adopté des lois réglementant divers aspects de l’IA, le SB 53 se concentre explicitement sur la sécurité des modèles d’IA avancés et puissants. Dans une déclaration, Newsom a affirmé : « La Californie a prouvé que nous pouvons établir des réglementations pour protéger nos communautés tout en veillant à ce que l’industrie de l’IA continue de prospérer. Cette législation trouve cet équilibre. »
La loi est susceptible d’avoir des répercussions mondiales, car 32 des 50 plus grandes entreprises d’IA au monde sont basées en Californie. Dans un message de signature au Sénat de l’État, Newsom a écrit que le statut de la Californie en tant que leader mondial de la technologie lui permet d’offrir un modèle de politiques équilibrées sur l’IA au-delà de ses frontières, surtout en l’absence d’un cadre fédéral complet sur l’IA.
Exigences et obligations
La loi exige des entreprises d’IA de premier plan qu’elles publient des documents publics détaillant comment elles respectent les meilleures pratiques pour créer des systèmes d’IA sûrs. Elle crée également un moyen pour les entreprises de signaler des incidents graves liés à l’IA aux services d’urgence de Californie, tout en renforçant les protections pour les lanceurs d’alerte qui soulèvent des préoccupations concernant les risques pour la santé et la sécurité.
Cette loi est soutenue par des sanctions civiles en cas de non-conformité, qui seront appliquées par le bureau du procureur général de l’État.
Réactions et critiques
Le sénateur d’État Scott Wiener, auteur de la loi, a déclaré : « Avec une technologie aussi transformative que l’IA, nous avons la responsabilité de soutenir cette innovation tout en mettant en place des garde-fous sensés pour comprendre et réduire les risques. »
Le SB 53 a été adopté exactement un an après que Newsom a veto une loi similaire, le SB 1047, qui tentait d’imposer une plus grande responsabilité aux grandes entreprises d’IA en cas d’événements néfastes. Alors que le SB 1047 était davantage axé sur la responsabilité, le SB 53 se concentre sur la transparence.
La loi a suscité des critiques intenses de la part de groupes industriels, tels que la Chamber of Progress et la Consumer Technology Association. Cependant, l’entreprise d’IA de premier plan, Anthropic, l’a soutenue, affirmant que la signature de Newsom établit des exigences de transparence significatives pour les entreprises d’IA de pointe sans imposer de mandats techniques prescriptifs.
Vers une réglementation fédérale?
Bien que plusieurs entreprises aient exprimé leur soutien pour la loi, elles ont clairement indiqué leur préférence pour une législation fédérale afin d’éviter des réglementations incohérentes d’État à État. Dans une déclaration, un porte-parole d’OpenAI a déclaré : « Nous sommes heureux de voir que la Californie a créé un chemin critique vers l’harmonisation avec le gouvernement fédéral. »
Des dirigeants mondiaux appellent de plus en plus à une réglementation de l’IA face aux risques croissants posés par les systèmes d’IA avancés. Le président Donald Trump a récemment déclaré à l’Assemblée générale des Nations unies que l’IA « pourrait être l’une des plus grandes choses jamais réalisées, mais elle peut aussi être dangereuse. »