OpenAI conteste les allégations de violation de la nouvelle loi californienne sur la sécurité des IA
OpenAI pourrait avoir violé la nouvelle loi californienne sur la sécurité des IA avec le lancement de son dernier modèle de codage, selon des allégations d’un groupe de surveillance des IA.
Une violation pourrait exposer l’entreprise à des amendes de plusieurs millions de dollars, et cette affaire pourrait servir de premier test de référence des dispositions de la nouvelle loi.
Un porte-parole d’OpenAI a contesté la position du groupe de surveillance, affirmant que l’entreprise était « confiante dans notre conformité avec les lois de sécurité de pointe, y compris la loi SB 53 ».
Contexte du modèle GPT-5.3-Codex
La controverse concerne le modèle GPT-5.3-Codex, lancé la semaine dernière. Ce modèle fait partie des efforts d’OpenAI pour reprendre son avance dans le domaine du codage assisté par IA et, selon des données de référence publiées, montre des performances nettement supérieures sur les tâches de codage par rapport aux versions précédentes des modèles d’OpenAI et de concurrents.
Cependant, le modèle a également soulevé des préoccupations inédites en matière de cybersécurité. Le PDG a déclaré que le modèle avait été classé dans la catégorie de « haut risque » pour la cybersécurité selon le cadre de préparation de l’entreprise, un système de classification des risques utilisé pour les lancements de modèles.
Exigences de la loi SB 53
La loi SB 53, entrée en vigueur en janvier, exige que les grandes entreprises d’IA publient et respectent leurs propres cadres de sécurité, détaillant comment elles préviendront les risques catastrophiques. Ces risques sont définis comme des incidents causant plus de 50 décès ou 1 milliard de dollars de dommages matériels. La loi interdit également aux entreprises de faire des déclarations trompeuses concernant leur conformité.
Le cadre de sécurité d’OpenAI nécessite des mesures de protection spéciales pour les modèles présentant un risque élevé en cybersécurité. Cependant, selon le groupe Midas, l’entreprise n’a pas mis en œuvre ces mesures avant de lancer le modèle GPT-5.3-Codex, malgré sa classification de « haut risque ».
Réactions et implications
OpenAI a déclaré que l’interprétation du groupe Midas concernant son cadre de préparation était incorrecte, bien qu’elle ait également reconnu que la formulation dans le cadre était « ambiguë ». Le groupe Midas soutient qu’OpenAI ne peut pas prouver de manière définitive que le modèle manque de l’autonomie nécessaire pour nécessiter des mesures supplémentaires.
Si une enquête est ouverte et que les allégations se révèlent exactes, la loi SB 53 prévoit des pénalités substantielles pour les violations, qui pourraient atteindre plusieurs millions de dollars. Un représentant du bureau du procureur général de Californie a déclaré que le département était « engagé à faire respecter les lois de notre État, y compris celles visant à augmenter la transparence et la sécurité dans le domaine émergent de l’IA ».
Conclusion
La situation actuelle d’OpenAI soulève des questions importantes sur la responsabilité des entreprises d’IA et la nécessité d’un cadre de sécurité clair conforme aux exigences légales. Les implications de cette affaire pourraient avoir des répercussions significatives sur la manière dont les entreprises gèrent la sécurité de leurs modèles à l’avenir.