La Californie adopte la première loi sur la sécurité de l’IA
La Californie a établi un précédent national en approuvant le premier projet de loi sur la sécurité de l’IA aux États-Unis. Signée par le gouverneur Gavin Newsom, cette législation oblige les principaux développeurs d’IA à rendre publiques leurs pratiques de sécurité et met en place un cadre de signalement des menaces, faisant de l’État un pionnier en matière de réglementation de l’IA.
La Californie fixe une norme nationale pour la surveillance de l’IA
La législation, SB 53, contraint les grandes entreprises d’IA telles qu’OpenAI et Meta à divulguer publiquement leurs pratiques de sécurité. Elle offre également des protections aux lanceurs d’alerte travaillant dans le secteur de l’IA et crée CalCompute, une plateforme de cloud computing gérée par l’État. Cette initiative répond à l’inquiétude croissante du public concernant les dangers liés à l’IA tout en continuant à favoriser l’innovation.
Le gouverneur Newsom a souligné que la Californie peut garantir la sécurité des communautés tout en promouvant le développement technologique. Selon lui, la Californie ne se limite pas à être un nouveau terrain d’innovation en IA, mais aspire également à être un leader national dans ce domaine.
Différences entre la nouvelle loi sur l’IA et les normes internationales
Contrairement à la loi sur l’IA de l’Union européenne, qui impose des divulgations de sécurité aux gouvernements, la loi californienne exige la transparence vis-à-vis du public. De plus, elle oblige les entreprises à signaler les événements de sécurité tels que les cyberattaques et les comportements manipulateurs de l’IA, faisant de cette loi la première de son genre au niveau mondial.
Réactions de l’industrie à l’approbation de SB 53
Contrairement à un projet de loi sur l’IA plus vaste de l’année dernière qui avait suscité une forte opposition, SB 53 a reçu un soutien timide de la part de plusieurs entreprises technologiques. Selon The Verge, Anthropic a ouvertement soutenu la mesure, et OpenAI et Meta n’ont pas tenté de la faire échouer. Meta a qualifié cela de « pas positif », tandis qu’OpenAI a exprimé son soutien à une collaboration fédérale future en matière de sécurité de l’IA.
Cependant, tous les acteurs du secteur ne se sont pas montrés favorables. La Chambre de progrès, une organisation de lobbying de l’industrie technologique, a averti que la loi pourrait décourager l’innovation. La société de capital-risque Andreessen Horowitz a exprimé des craintes selon lesquelles la réglementation du développement de l’IA pourrait rendre difficile le travail des startups et favoriser les entreprises déjà établies.
Conséquences pour l’avenir de la réglementation de l’IA
Le passage de SB 53 pourrait inspirer des efforts similaires dans d’autres États, façonnant potentiellement un patchwork de lois sur l’IA à travers les États-Unis. Bien que des législateurs de New York aient proposé une législation comparable, le Congrès débat de la nécessité de normes nationales qui pourraient primer sur les règles au niveau des États.
Le sénateur Ted Cruz s’est opposé aux règles des États, menaçant le risque de « 50 normes contradictoires » à l’échelle nationale. Ses remarques soulignent une tension plus générale : comment équilibrer la compétitivité des États-Unis en matière d’IA avec la nécessité d’une réglementation sensée.