Conformité d’OpenAI face aux nouvelles régulations de l’IA en Europe

A blueprint to illustrate the structured approach to implementing AI regulations.

ChatGPT respecte-t-il les règles de l’UE en matière d’IA ?

Il n’est pas clair si OpenAI se conforme aux exigences de divulgation des données d’entraînement de l’AI Act pour GPT-5, le dernier modèle alimentant son chatbot populaire – bien que l’UE ne commence à appliquer la règle qu’à partir de l’année prochaine.

Les exigences de l’AI Act

La loi sur l’IA de l’UE impose un certain nombre d’exigences aux développeurs de modèles d’IA à usage général (GPAI), comme GPT-5 d’OpenAI. Parmi ces exigences figure l’obligation de publier des résumés des données utilisées pour les former.

En juillet, l’AI Office – l’organisme de l’UE qui supervise les développeurs de GPAI – a publié un modèle établissant les informations qu’ils doivent fournir. L’outil de conformité exige un résumé des « domaines les plus pertinents » explorés pour la collecte des données d’entraînement, ainsi que les noms de tout ensemble de données disponibles publiquement utilisé.

Délais de conformité

Les modèles publiés avant le 2 août 2025 ont jusqu’en 2027 pour se conformer aux divulgations, tandis que les modèles publiés après cette date doivent se conformer immédiatement. Ces dates sont pertinentes car OpenAI a lancé GPT-5 le 7 août 2025, soit cinq jours après la date limite de l’UE. Cependant, jusqu’à présent, OpenAI ne semble pas avoir produit le résumé requis des données d’entraînement de GPT-5.

Il a été impossible de trouver cette information sur leur site web, et OpenAI n’a pas répondu à plusieurs questions concernant la conformité de ce modèle aux exigences de l’AI Act.

Risques systémiques

Selon Petar Tsankov, PDG de la société de conformité AI LatticeFlow, GPT-5 dépasse « presque certainement » le seuil pour être considéré comme un modèle à « risque systémique » selon l’AI Act. Cela signifierait qu’OpenAI doit effectuer des évaluations de modèle « à la pointe de la technologie » et traiter les risques systémiques potentiels. Cependant, aucune preuve publique n’a été partagée concernant ces étapes.

Il convient de noter qu’il n’y a pas d’exigence légale pour qu’OpenAI fasse une divulgation publique des évaluations des risques systémiques qu’il doit entreprendre en vertu de la loi.

Analyse de la Commission Européenne

Interrogée sur la conformité de GPT-5 aux divulgations des données d’entraînement de l’AI Act, la Commission européenne a déclaré que cela dépend de savoir si la technologie est considérée comme un nouveau modèle selon les règles de la loi. Elle a ajouté que l’AI Office est encore en train d’analyser si c’est le cas, en se basant sur divers détails techniques non publics.

Pour sa part, OpenAI a commercialisé GPT-5 comme un nouveau modèle. Le directeur de l’entreprise, Sam Altman, a même comparé l’IA à un projet secret majeur, en faisant référence au Manhattan Project, le programme militaire scientifique américain destiné à développer la bombe atomique.

Conséquences potentielles

Si l’AI Office de l’UE décide que GPT-5 est effectivement un nouveau modèle, et donc que les règles de l’Acte s’appliquent déjà à lui, OpenAI pourrait encore éviter de s’inquiéter de la conformité immédiatement ; l’AI Office ne commencera à appliquer cela qu’en août 2026.

« Pensez-y comme à un panneau de limitation de vitesse déjà en place, mais sans enforcement de police pour l’instant », explique Tsankov de LatticeFlow. « Si vous dépassez la limite, vous êtes techniquement en violation – mais vous ne serez pas en difficulté tant que l’application ne commence pas. »

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...