OpenAI conteste des accusations de violation de la loi californienne sur la sécurité de l’IA

A shattered, yet glowing, digital hourglass with sand made of binary code

OpenAI conteste les allégations de violation de la nouvelle loi californienne sur la sécurité des IA

OpenAI pourrait avoir violé la nouvelle loi californienne sur la sécurité des IA avec le lancement de son dernier modèle de codage, selon des allégations d’un groupe de surveillance des IA.

Une violation pourrait exposer l’entreprise à des amendes de plusieurs millions de dollars, et cette affaire pourrait servir de premier test de référence des dispositions de la nouvelle loi.

Un porte-parole d’OpenAI a contesté la position du groupe de surveillance, affirmant que l’entreprise était « confiante dans notre conformité avec les lois de sécurité de pointe, y compris la loi SB 53 ».

Contexte du modèle GPT-5.3-Codex

La controverse concerne le modèle GPT-5.3-Codex, lancé la semaine dernière. Ce modèle fait partie des efforts d’OpenAI pour reprendre son avance dans le domaine du codage assisté par IA et, selon des données de référence publiées, montre des performances nettement supérieures sur les tâches de codage par rapport aux versions précédentes des modèles d’OpenAI et de concurrents.

Cependant, le modèle a également soulevé des préoccupations inédites en matière de cybersécurité. Le PDG a déclaré que le modèle avait été classé dans la catégorie de « haut risque » pour la cybersécurité selon le cadre de préparation de l’entreprise, un système de classification des risques utilisé pour les lancements de modèles.

Exigences de la loi SB 53

La loi SB 53, entrée en vigueur en janvier, exige que les grandes entreprises d’IA publient et respectent leurs propres cadres de sécurité, détaillant comment elles préviendront les risques catastrophiques. Ces risques sont définis comme des incidents causant plus de 50 décès ou 1 milliard de dollars de dommages matériels. La loi interdit également aux entreprises de faire des déclarations trompeuses concernant leur conformité.

Le cadre de sécurité d’OpenAI nécessite des mesures de protection spéciales pour les modèles présentant un risque élevé en cybersécurité. Cependant, selon le groupe Midas, l’entreprise n’a pas mis en œuvre ces mesures avant de lancer le modèle GPT-5.3-Codex, malgré sa classification de « haut risque ».

Réactions et implications

OpenAI a déclaré que l’interprétation du groupe Midas concernant son cadre de préparation était incorrecte, bien qu’elle ait également reconnu que la formulation dans le cadre était « ambiguë ». Le groupe Midas soutient qu’OpenAI ne peut pas prouver de manière définitive que le modèle manque de l’autonomie nécessaire pour nécessiter des mesures supplémentaires.

Si une enquête est ouverte et que les allégations se révèlent exactes, la loi SB 53 prévoit des pénalités substantielles pour les violations, qui pourraient atteindre plusieurs millions de dollars. Un représentant du bureau du procureur général de Californie a déclaré que le département était « engagé à faire respecter les lois de notre État, y compris celles visant à augmenter la transparence et la sécurité dans le domaine émergent de l’IA ».

Conclusion

La situation actuelle d’OpenAI soulève des questions importantes sur la responsabilité des entreprises d’IA et la nécessité d’un cadre de sécurité clair conforme aux exigences légales. Les implications de cette affaire pourraient avoir des répercussions significatives sur la manière dont les entreprises gèrent la sécurité de leurs modèles à l’avenir.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...