Newsletter sur la loi sur l’IA de l’UE #86 : Inquiétudes concernant la conformité de GPT-5
Bienvenue dans la newsletter sur la loi sur l’IA de l’UE, une brève newsletter bihebdomadaire qui vous fournit les dernières évolutions et analyses de la législation européenne sur l’intelligence artificielle.
Processus législatif
Consultation de la Commission sur les systèmes d’IA transparents : La Commission européenne a lancé une consultation pour développer des lignes directrices et un code de pratique pour les systèmes d’IA transparents, en se concentrant particulièrement sur le soutien aux déployeurs et aux fournisseurs de systèmes d’IA générative pour détecter et étiqueter le contenu généré ou manipulé par l’IA. En vertu de la loi sur l’IA, les déployeurs et les fournisseurs d’IA générative doivent informer les utilisateurs lorsqu’ils interagissent avec des systèmes d’IA, y compris lorsqu’ils sont exposés à des systèmes de reconnaissance émotionnelle et de catégorisation biométrique, ou lorsqu’ils rencontrent du contenu généré par l’IA. La Commission sollicite l’avis d’un large éventail de parties prenantes, y compris des fournisseurs d’IA, des organisations publiques et privées, des universitaires, des représentants de la société civile, des autorités de supervision et des citoyens. La date limite de la consultation est fixée au 2 octobre 2025, accompagnée d’un appel simultané à expressions d’intérêt pour les parties prenantes souhaitant participer à la création du code de pratique. Ces obligations de transparence, qui font partie des efforts de l’UE pour promouvoir une IA responsable et digne de confiance, entreront en vigueur à partir du 2 août 2026.
Les autorités de protection de la vie privée allemandes mécontentes de la mise en œuvre : Selon Euractiv, les autorités allemandes de protection des données ont vivement critiqué le projet de loi d’implémentation du gouvernement pour la loi sur l’IA, arguant qu’il diminue à tort leur autorité. La loi sur l’IA emploie un cadre réglementaire basé sur le risque, supervisé par des autorités nationales désignées. La principale préoccupation exprimée par 17 autorités de protection des données des États allemands concerne la supervision des systèmes d’IA dans des domaines sensibles tels que l’application de la loi, la gestion des frontières, la justice et la démocratie. Le projet de loi attribue les responsabilités de supervision à l’autorité de régulation des télécommunications (BNetzA), ce que les autorités de protection des données jugent contradictoire avec la stipulation de la loi sur l’IA selon laquelle les autorités de protection des données devraient plutôt superviser les applications d’IA à haut risque dans ces domaines sensibles. Meike Kamp, responsable de l’autorité de protection de la vie privée de Berlin, a averti que déléguer ces responsabilités à BNetzA entraînerait un « affaiblissement massif des droits fondamentaux » et a critiqué le projet de loi pour son apparent mépris de l’importance des droits fondamentaux.
Analyses
ChatGPT pourrait ne pas respecter les règles de l’UE : Des questions se posent concernant la conformité d’OpenAI avec les exigences de la loi sur l’IA pour son modèle récemment publié, GPT-5, en particulier en ce qui concerne les obligations de divulgation des données d’entraînement, comme le rapporte Euractiv. La loi sur l’IA exige que les développeurs d’IA à usage général publient des résumés de leurs données d’entraînement, pour lesquels l’Office de l’IA a fourni un modèle en juillet. Bien que les modèles publiés avant le 2 août 2025 aient jusqu’en 2027 pour se conformer, ceux publiés après doivent se conformer immédiatement. GPT-5, publié le 7 août 2025, semble manquer du résumé des données d’entraînement requis et de la politique de droits d’auteur, malgré le fait qu’OpenAI soit signataire du code de pratique de l’UE. Selon Petar Tsankov, PDG de la société de conformité AI LatticeFlow, le modèle est probablement classé comme « risque systémique », nécessitant des évaluations de modèle et la gestion des risques systémiques potentiels. La Commission européenne indique que les exigences de conformité de GPT-5 dépendent de sa considération en tant que nouveau modèle au sens de la loi, ce que l’Office de l’IA évalue actuellement. Cependant, l’application ne commencera pas avant août 2026, laissant à OpenAI le temps de résoudre d’éventuels problèmes de conformité.
Le Bureau de l’UE pour l’IA fait face à des défis de recrutement : Selon un article de Peder Schaefer dans Transformer, le Bureau de l’IA, malgré son rôle crucial dans l’application de la loi sur l’IA, fait face à des défis de personnel significatifs. Bien qu’il ait attiré certains talents notables et emploie actuellement plus de 125 personnes, avec des plans pour embaucher 35 autres d’ici la fin de l’année, des postes clés de direction restent vacants. Le Bureau, responsable de plus de 100 tâches, y compris l’application du code de pratique et l’imposition de lourdes amendes pour non-conformité, lutte pour le recrutement en raison de salaires peu compétitifs, de processus d’embauche lents et de la pression pour assurer une représentation des États membres. Les offres actuelles vont de 55 000 à 120 000 dollars, ce qui, malgré les avantages fiscaux, reste bien en deçà des compensations du secteur privé où le personnel technique peut gagner des millions. La pénurie de personnel est devenue particulièrement pressante depuis la mise en œuvre des règles sur l’IA à usage général le 2 août. Le député européen Axel Voss suggère que les unités de conformité et de sécurité seules ont besoin de 200 employés, bien plus que ce qui est actuellement proposé.
L’UE continue de lutter avec les complexités du droit d’auteur lié à l’IA : Bertin Martens, chercheur principal à Brugel, a écrit que la mise en œuvre de la loi sur l’IA de l’UE, y compris son code de pratique (CoP), révèle des tensions persistantes entre le droit d’auteur et les besoins de développement de l’IA. Martens soutient que si les exigences de transparence et de sécurité sont faciles, les problèmes de droit d’auteur présentent des défis significatifs. Les obligations de droit d’auteur réduisent les données disponibles et, par le biais des exigences de licence, augmentent le coût des données d’entraînement des modèles. Une interdiction de reproduire du contenu protégé par des droits d’auteur dans les sorties de modèle a du sens, tout comme l’entraînement sur des données légalement accessibles. Cependant, la gestion de la transparence des ensembles de données et le traitement du nombre croissant de refus de droit d’auteur s’avèrent problématiques. Les régulateurs de l’UE sont confrontés à un dilemme : un renforcement strict du droit d’auteur pourrait entraver la compétitivité de l’UE dans le développement de l’IA, tandis qu’une réforme légale immédiate est impraticable. L’affaiblissement subtil de l’application du droit d’auteur dans le CoP a attiré la plupart des grands développeurs d’IA en tant que signataires, à l’exception de Meta et xAI. Une politique plus satisfaisante nécessiterait un débat sur le rôle de l’IA dans l’amélioration de l’apprentissage, de la recherche et de l’innovation, car le cadre actuel du droit d’auteur, dominé par des industries médiatiques représentant moins de 4% du PIB, pourrait entraver le progrès.
L’industrie européenne ne se mobilise pas pour le développement des normes : Une figure clé dans le développement des normes de l’IA de l’UE a critiqué l’absence de participation de l’industrie européenne à la création de normes techniques cruciales pour la mise en œuvre de la loi sur l’IA. Piercosma Bisconti, qui dirige la rédaction d’un « cadre de confiance pour l’IA » pour CEN et CENELEC, a publiquement critiqué les entreprises pour leur absence dans le processus de définition des normes. Cette critique s’adressait particulièrement aux signataires de l’« initiative des champions de l’IA », qui comprend des entreprises majeures telles qu’Airbus, Siemens, Spotify et SAP. La loi sur l’IA exige des normes techniques détaillées pour convertir ses principes larges en directives concrètes pour les développeurs d’IA. Cependant, le progrès lent dans le développement des normes a poussé l’industrie et les gouvernements de l’UE à demander des délais de mise en œuvre. Bisconti, qui est également co-fondateur de la société italienne d’IA Dexai, a spécifiquement critiqué les entreprises qui ont appelé à « arrêter le compteur » sur la loi sur l’IA tout en échouant à s’engager dans le processus de développement des normes, notant que « l’industrie de l’UE est à peine à la table ».