Conformité d’OpenAI face aux nouvelles régulations de l’IA en Europe

A blueprint to illustrate the structured approach to implementing AI regulations.

ChatGPT respecte-t-il les règles de l’UE en matière d’IA ?

Il n’est pas clair si OpenAI se conforme aux exigences de divulgation des données d’entraînement de l’AI Act pour GPT-5, le dernier modèle alimentant son chatbot populaire – bien que l’UE ne commence à appliquer la règle qu’à partir de l’année prochaine.

Les exigences de l’AI Act

La loi sur l’IA de l’UE impose un certain nombre d’exigences aux développeurs de modèles d’IA à usage général (GPAI), comme GPT-5 d’OpenAI. Parmi ces exigences figure l’obligation de publier des résumés des données utilisées pour les former.

En juillet, l’AI Office – l’organisme de l’UE qui supervise les développeurs de GPAI – a publié un modèle établissant les informations qu’ils doivent fournir. L’outil de conformité exige un résumé des « domaines les plus pertinents » explorés pour la collecte des données d’entraînement, ainsi que les noms de tout ensemble de données disponibles publiquement utilisé.

Délais de conformité

Les modèles publiés avant le 2 août 2025 ont jusqu’en 2027 pour se conformer aux divulgations, tandis que les modèles publiés après cette date doivent se conformer immédiatement. Ces dates sont pertinentes car OpenAI a lancé GPT-5 le 7 août 2025, soit cinq jours après la date limite de l’UE. Cependant, jusqu’à présent, OpenAI ne semble pas avoir produit le résumé requis des données d’entraînement de GPT-5.

Il a été impossible de trouver cette information sur leur site web, et OpenAI n’a pas répondu à plusieurs questions concernant la conformité de ce modèle aux exigences de l’AI Act.

Risques systémiques

Selon Petar Tsankov, PDG de la société de conformité AI LatticeFlow, GPT-5 dépasse « presque certainement » le seuil pour être considéré comme un modèle à « risque systémique » selon l’AI Act. Cela signifierait qu’OpenAI doit effectuer des évaluations de modèle « à la pointe de la technologie » et traiter les risques systémiques potentiels. Cependant, aucune preuve publique n’a été partagée concernant ces étapes.

Il convient de noter qu’il n’y a pas d’exigence légale pour qu’OpenAI fasse une divulgation publique des évaluations des risques systémiques qu’il doit entreprendre en vertu de la loi.

Analyse de la Commission Européenne

Interrogée sur la conformité de GPT-5 aux divulgations des données d’entraînement de l’AI Act, la Commission européenne a déclaré que cela dépend de savoir si la technologie est considérée comme un nouveau modèle selon les règles de la loi. Elle a ajouté que l’AI Office est encore en train d’analyser si c’est le cas, en se basant sur divers détails techniques non publics.

Pour sa part, OpenAI a commercialisé GPT-5 comme un nouveau modèle. Le directeur de l’entreprise, Sam Altman, a même comparé l’IA à un projet secret majeur, en faisant référence au Manhattan Project, le programme militaire scientifique américain destiné à développer la bombe atomique.

Conséquences potentielles

Si l’AI Office de l’UE décide que GPT-5 est effectivement un nouveau modèle, et donc que les règles de l’Acte s’appliquent déjà à lui, OpenAI pourrait encore éviter de s’inquiéter de la conformité immédiatement ; l’AI Office ne commencera à appliquer cela qu’en août 2026.

« Pensez-y comme à un panneau de limitation de vitesse déjà en place, mais sans enforcement de police pour l’instant », explique Tsankov de LatticeFlow. « Si vous dépassez la limite, vous êtes techniquement en violation – mais vous ne serez pas en difficulté tant que l’application ne commence pas. »

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...