Processus précipité du Code GPAI de l’UE : Urgence d’une intervention pour éviter un dérèglement

A broken bridge illustrating the potential derailment of the process

Étude sur le Code GPAI de l’UE : Un Processus Précipité Prêt à Dérailler, une Intervention Urgente Est Nécessaire

Bruxelles, BELGIQUE – Le 19 décembre 2024, le Bureau de l’IA de la Commission Européenne a publié le deuxième projet du Code de Pratique à destination des fournisseurs de modèles d’IA à usage général (GPAI). Obtenir le bon code est essentiel pour mettre en œuvre la loi sur l’IA emblématique de l’UE.

Cependant, ce nouveau projet inclut des mesures déjà explicitement rejetées par les co-législateurs de l’UE durant les négociations de la loi sur l’IA. Les idées précédemment écartées qui ont été ressuscitées comprennent l’évaluation obligatoire par des tiers et le traitement différencié entre les développeurs de GPAI de petite et grande taille.

Si ces mesures ne sont pas corrigées, le Code risque de devenir un véhicule anti-démocratique qui renverse le processus législatif de la loi sur l’IA. Cette seconde itération contient également des mesures allant bien au-delà du périmètre convenu de la loi, comme des mesures de droit d’auteur étendues, avertit la Computer & Communications Industry Association (CCIA Europe).

Un Processus de Rédaction à Risque

Le processus de rédaction actuel risque de décevoir les hautes attentes des développeurs et des innovateurs en matière d’IA, le contenu de la dernière version souffrant déjà énormément.

Les parties prenantes ont eu très peu de temps pour examiner le premier projet, seulement 10 jours, et il n’est pas clair comment les centaines de réponses des parties prenantes ont été examinées et prises en compte en l’espace de deux semaines. Les préoccupations concernant le processus de rédaction ont été largement répercutées par les membres du Parlement Européen et l’industrie ces derniers jours et semaines.

La CCIA Europe exhorte la Commission à prendre le contrôle du processus et à le corriger. Cela signifie accorder aux parties prenantes et aux experts indépendants suffisamment de temps pour soumettre des commentaires et s’assurer que leurs préoccupations sont prises en compte dans le prochain projet de Code. Sinon, ce processus ne peut raisonnablement produire un Code fonctionnel qui résiste à l’épreuve du temps.

Déclarations de la CCIA Europe

“À l’heure actuelle, le projet de Code GPAI de l’Europe manque encore de garanties fondamentales. Il pourrait compromettre les secrets commerciaux et les informations confidentielles des entreprises, et introduire des mesures qui menacent directement la sûreté et la sécurité des modèles d’IA.”

“Il est perplexe de constater que ce deuxième projet est en deçà des domaines critiques par rapport à la version initiale.”

“Le succès du Code de Pratique sera vital pour les développeurs de modèles d’IA à usage général, mais aussi pour l’écosystème plus large de l’IA ainsi que pour la compétitivité de la base industrielle et de l’économie européenne dans son ensemble. Cependant, l’adhésion des développeurs au Code est gravement menacée sans des améliorations majeures dans le prochain projet.”

Articles

Gouvernance des données : clé de l’IA dans les télécommunications

L'intelligence artificielle (IA) transforme déjà le secteur des télécommunications en révolutionnant la manière dont les opérateurs fonctionnent et offrent de la valeur. Cependant, cette révolution...

Maroc : Leader précoce dans la gouvernance mondiale de l’IA

Le Maroc a pris les devants parmi les acteurs influents pour faire progresser la gouvernance mondiale de l'intelligence artificielle (IA), selon l'ambassadeur Omar Hilale. Le Royaume aspire à...

La bataille pour la régulation de l’IA : enjeux et perspectives

La lutte pour savoir qui régule l'IA est loin d'être terminée, avec des propositions législatives qui pourraient avoir un impact significatif sur la réglementation des modèles et des applications d'IA...

Préparer l’Industrie Pharmaceutique à l’Intelligence Artificielle

L'intelligence artificielle est sur le point de transformer chaque aspect de l'industrie pharmaceutique, de la découverte de molécules aux essais cliniques et au-delà. Cependant, dans un domaine où...

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...