Californie et New York imposent les lois sur l’IA les plus strictes
La Californie et New York ont instauré les règles les plus strictes du pays concernant l’IA, transformant des mesures de sécurité volontaires en obligations légales pour les entreprises qui développent et déploient des modèles à grande échelle. Les experts juridiques affirment que ce changement renforce la transparence et la sécurité tout en préservant l’innovation, établissant un affrontement inévitable avec les responsables fédéraux qui souhaitent un cadre unique et moins contraignant.
Les changements majeurs
Le premier changement concerne la responsabilité. Les développeurs de modèles et les principales plateformes d’IA doivent divulguer comment ils prévoient de réduire les risques catastrophiques, signaler les incidents graves et protéger les lanceurs d’alerte qui signalent des problèmes. Le résultat est une nouvelle base de conformité pour toute entreprise d’IA ayant des ambitions nationales, car ignorer les deux marchés technologiques les plus influents du pays n’est pas une option viable.
Le SB 53 de Californie et la loi RAISE de New York
Le SB 53 de Californie exige que les développeurs publient des plans de réduction des risques pour leurs modèles les plus performants et signalent les « incidents de sécurité » susceptibles de permettre des intrusions informatiques, des abus chimiques ou biologiques, des dommages radiologiques ou nucléaires, des blessures corporelles graves, ou une perte de contrôle sur un système. Les entreprises disposent de 15 jours pour notifier l’État et encourent des amendes pouvant atteindre 1 million de dollars en cas de non-conformité.
La loi RAISE de New York reflète les règles de divulgation mais va plus loin en matière d’application. Les incidents de sécurité doivent être signalés dans les 72 heures, et les amendes peuvent atteindre 3 millions de dollars après une première violation. Elle introduit également des audits tiers annuels, ajoutant un contrôle indépendant que la Californie ne mandate pas.
Les deux lois ciblent les entreprises ayant plus de 500 millions de dollars de revenus annuels, impliquant ainsi les grandes entreprises technologiques et les grands fournisseurs d’IA tout en épargnant de nombreuses startups en phase de démarrage. Les régulateurs ont choisi une approche axée sur la transparence après qu’une proposition californienne plus musclée, le SB 1047, a échoué, car elle proposait des « interrupteurs d’arrêt » obligatoires et des tests de sécurité pour les modèles dépassant un seuil de coût de formation élevé.
Impacts de conformité pour les développeurs d’IA et les entreprises
En pratique, les nouvelles règles obligent à la mise en place d’une gouvernance de sécurité plutôt qu’à un arrêt de la R&D. Les entreprises doivent disposer de plans de réponse aux incidents qui définissent ce qui constitue un événement d’IA signalable, une escalade en cas d’urgence, et la préservation des preuves. Attendez-vous à des tests de résistance plus rigoureux, une journalisation centralisée du comportement des modèles et une documentation formelle des « cas de sécurité » que les équipes produits et les conseillers juridiques peuvent soutenir.
Étant donné que de nombreuses entreprises mondiales se conforment déjà à la loi européenne sur l’IA, les experts juridiques estiment que l’effort marginal pourrait être moins important que prévu, en particulier sur les divulgations. Les lois marquent un premier pas crucial en rendant la surveillance des risques catastrophiques exécutoire aux États-Unis.
Scénario réel
Considérez un scénario : un modèle à usage général utilisé par une entreprise fintech est détourné pour générer un code malveillant qui compromet un réseau partenaire. Selon la loi de New York, cet abus potentiel pourrait déclencher un rapport sous 72 heures et une trace d’audit ; en Californie, l’entreprise aurait 15 jours. Pour les entreprises, ces délais influencent désormais les contrats fournisseurs, les accords de niveau de service (SLA) et la rapidité avec laquelle les résultats parviennent au conseil d’administration.