ChatGPT respecte-t-il les règles de l’UE en matière d’IA ?
Il n’est pas clair si OpenAI se conforme aux exigences de divulgation des données d’entraînement de l’AI Act pour GPT-5, le dernier modèle alimentant son chatbot populaire – bien que l’UE ne commence à appliquer la règle qu’à partir de l’année prochaine.
Les exigences de l’AI Act
La loi sur l’IA de l’UE impose un certain nombre d’exigences aux développeurs de modèles d’IA à usage général (GPAI), comme GPT-5 d’OpenAI. Parmi ces exigences figure l’obligation de publier des résumés des données utilisées pour les former.
En juillet, l’AI Office – l’organisme de l’UE qui supervise les développeurs de GPAI – a publié un modèle établissant les informations qu’ils doivent fournir. L’outil de conformité exige un résumé des « domaines les plus pertinents » explorés pour la collecte des données d’entraînement, ainsi que les noms de tout ensemble de données disponibles publiquement utilisé.
Délais de conformité
Les modèles publiés avant le 2 août 2025 ont jusqu’en 2027 pour se conformer aux divulgations, tandis que les modèles publiés après cette date doivent se conformer immédiatement. Ces dates sont pertinentes car OpenAI a lancé GPT-5 le 7 août 2025, soit cinq jours après la date limite de l’UE. Cependant, jusqu’à présent, OpenAI ne semble pas avoir produit le résumé requis des données d’entraînement de GPT-5.
Il a été impossible de trouver cette information sur leur site web, et OpenAI n’a pas répondu à plusieurs questions concernant la conformité de ce modèle aux exigences de l’AI Act.
Risques systémiques
Selon Petar Tsankov, PDG de la société de conformité AI LatticeFlow, GPT-5 dépasse « presque certainement » le seuil pour être considéré comme un modèle à « risque systémique » selon l’AI Act. Cela signifierait qu’OpenAI doit effectuer des évaluations de modèle « à la pointe de la technologie » et traiter les risques systémiques potentiels. Cependant, aucune preuve publique n’a été partagée concernant ces étapes.
Il convient de noter qu’il n’y a pas d’exigence légale pour qu’OpenAI fasse une divulgation publique des évaluations des risques systémiques qu’il doit entreprendre en vertu de la loi.
Analyse de la Commission Européenne
Interrogée sur la conformité de GPT-5 aux divulgations des données d’entraînement de l’AI Act, la Commission européenne a déclaré que cela dépend de savoir si la technologie est considérée comme un nouveau modèle selon les règles de la loi. Elle a ajouté que l’AI Office est encore en train d’analyser si c’est le cas, en se basant sur divers détails techniques non publics.
Pour sa part, OpenAI a commercialisé GPT-5 comme un nouveau modèle. Le directeur de l’entreprise, Sam Altman, a même comparé l’IA à un projet secret majeur, en faisant référence au Manhattan Project, le programme militaire scientifique américain destiné à développer la bombe atomique.
Conséquences potentielles
Si l’AI Office de l’UE décide que GPT-5 est effectivement un nouveau modèle, et donc que les règles de l’Acte s’appliquent déjà à lui, OpenAI pourrait encore éviter de s’inquiéter de la conformité immédiatement ; l’AI Office ne commencera à appliquer cela qu’en août 2026.
« Pensez-y comme à un panneau de limitation de vitesse déjà en place, mais sans enforcement de police pour l’instant », explique Tsankov de LatticeFlow. « Si vous dépassez la limite, vous êtes techniquement en violation – mais vous ne serez pas en difficulté tant que l’application ne commence pas. »