La Newsletter de la Loi sur l’IA de l’UE #80 : La Commission Recherche des Experts pour le Panel Scientifique sur l’IA
Bienvenue dans la Newsletter de la Loi sur l’IA de l’UE, une brève newsletter bihebdomadaire fournissant des développements et analyses à jour sur la loi sur l’intelligence artificielle en Europe.
Processus Législatif
La Commission recherche des experts pour le Panel Scientifique sur l’IA : La Commission européenne établit un panel scientifique d’experts indépendants pour aider à la mise en œuvre et à l’application de la Loi sur l’IA. Le mandat du panel se concentre sur les modèles et systèmes d’IA à usage général (GPAI). Il conseillera l’Office de l’IA de l’UE et les autorités nationales sur les risques systémiques, la classification des modèles, les méthodes d’évaluation, et la surveillance du marché transfrontalier, tout en alertant l’Office sur les risques émergents. La Commission recherche 60 membres pour un mandat renouvelable de deux ans. Les candidats doivent avoir une expertise en GPAI, en impacts de l’IA ou dans des domaines connexes tels que l’évaluation des modèles, l’évaluation et la mitigation des risques, la cybersécurité, les risques systémiques et les mesures de calcul. Un doctorat ou une expérience équivalente est requis, et les experts doivent maintenir leur indépendance vis-à-vis des fournisseurs d’IA. La sélection garantira l’équilibre entre les sexes et la représentation des pays de l’UE et de l’EEE/EFTA. Bien que la citoyenneté de l’UE ne soit pas obligatoire, 80 % des experts doivent provenir d’États membres de l’UE ou d’EFTA. Les candidatures se clôturent le 14 septembre.
Le Future of Life Institute a également rédigé un article de blog soulignant les raisons pour lesquelles les experts devraient rejoindre le panel.
Le 1er anniversaire de l’Office de l’IA de l’UE :
L’Office de l’IA de l’UE célèbre son premier anniversaire, ayant recruté plus de 100 experts dans les domaines de la politique de l’IA, de la recherche et de l’innovation, de la santé, de la réglementation, et de la coopération internationale. Parmi ses réalisations, on trouve la mise en œuvre de la Loi sur l’IA, la création de directives pratiques, d’outils, et de structures de gouvernance. Les accomplissements clés incluent l’émission de lignes directrices concernant la définition et les prohibitions des systèmes d’IA, l’établissement d’un référentiel de littératie en matière d’IA, et la collaboration avec le Conseil de l’IA des États membres. Le panel scientifique est en cours de création, avec un forum consultatif à suivre. Les initiatives à venir incluent la publication imminente d’un Code de pratique sur l’IA à usage général, élaboré avec l’apport de plus de 1 000 experts, devant être évalué d’ici août 2025. Des lignes directrices clarifiant les concepts de GPAI sont en développement, et une consultation publique sur les systèmes d’IA à haut risque est actuellement ouverte. L’office participe activement aux efforts de standardisation et prévoit de lancer un Service Desk de la Loi sur l’IA pour fournir des conseils aux développeurs, aux déployeurs, et aux autorités.
Analyses
Lettre appelant à des règles GPAI au service des intérêts des entreprises et des citoyens européens : Une coalition de chercheurs en IA, de représentants de la société civile, de l’industrie et du milieu académique, y compris les lauréats du Nobel Daron Acemoglu et Geoffrey Hinton, a écrit à la Présidente de la Commission européenne. Leur lettre exhorte les dirigeants de l’UE à résister aux pressions de ceux qui attaquent les règles sur l’IA à usage général. La coalition soutient que l’UE peut démontrer sa capacité à fournir des outils propices à l’innovation industrielle, tels que le Code de pratique, sans compromettre la santé, la sécurité, et les droits fondamentaux. Le Code de pratique, élaboré pendant neuf mois avec une large consultation des parties prenantes, facilite le respect des obligations GPAI. Il affecte principalement 5 à 15 grandes entreprises et s’aligne sur les pratiques de gestion des risques existantes. La coalition recommande trois éléments pour une gouvernance GPAI à l’épreuve du temps : 1) des tests tiers obligatoires pour les modèles de risque systémique dans le Code de pratique afin d’assurer des garanties efficaces et de favoriser la confiance ; 2) des mécanismes d’examen robustes pouvant s’adapter rapidement aux risques émergents et aux pratiques de sécurité, y compris des mises à jour d’urgence pour les menaces imminentes ; et 3) le renforcement des capacités d’application de l’Office de l’IA en élargissant l’unité de sécurité de l’IA à 100 employés et l’équipe de mise en œuvre à 200, tout en recrutant des experts en sécurité de l’IA de premier plan. La lettre a été d’abord partagée par le Financial Times.
Les États-Unis font face à un environnement réglementaire de plus en plus complexe : Bella Zielinski et Jacob Wulff Wold d’Euractiv soutiennent que les États-Unis sont confrontés à un paysage réglementaire complexe malgré les critiques des réglementations technologiques de l’UE. En 2024, les États ont introduit près de 700 projets de loi liés à l’IA, dont 113 sont devenus loi, et des centaines d’autres ont été introduits en 2025. Des États comme le Colorado et le Texas ont adopté des approches complètes similaires à la Loi sur l’IA de l’UE, tandis que la Californie a adopté une législation ciblée sur des problèmes spécifiques tels que les deepfakes et les répliques numériques. Meta s’est plainte auprès de la Maison Blanche d’un « environnement réglementaire ingérable » avec des normes contradictoires dépassant les restrictions de l’UE. Cependant, ce patchwork au niveau des États pourrait bénéficier à l’application de la Loi sur l’IA de l’UE contre les entreprises américaines. L’administration de Trump a changé d’orientation vers l’IA en tant qu’outil géopolitique, révoquant l’ordre exécutif de Biden sur les risques de l’IA et prévoyant de renforcer la domination mondiale de l’Amérique en matière d’IA. Cet environnement politique hostile pourrait décourager d’autres législations sur l’IA au niveau des États. Les grandes entreprises technologiques font pression pour une réglementation fédérale afin de supplanter les lois des États. Le résultat – soit un patchwork étatique, soit une déréglementation – pourrait avoir des répercussions sur l’approche réglementaire de l’UE.
La nouvelle loi sur l’IA du Kazakhstan inspirée par l’UE : Selon un article d’Euractiv, le Kazakhstan s’efforce de devenir le premier pays d’Asie centrale à réglementer de manière exhaustive l’IA, s’inspirant de la Loi sur l’IA de l’UE. Le projet de loi ‘Sur l’intelligence artificielle’, qui a reçu une approbation initiale de la chambre basse du Parlement kazakh en mai, démontre son engagement en faveur d’une réglementation centrée sur l’humain pour l’IA. Selon Shoplan Saimova de l’Institut de parlementarisme, la Loi sur l’IA de l’UE sert de modèle, et le Kazakhstan vise à mener plutôt qu’à suivre, développant un cadre aligné sur les priorités nationales qui établit la confiance entre les humains et les systèmes d’IA tout en protégeant les intérêts publics. La législation, développée par le biais d’une large consultation des parties prenantes, vise à régir l’IA dans toute la société. Cependant, une récente analyse académique par des chercheurs kazakhs identifie quatre principales lacunes par rapport au cadre de l’UE : l’absence d’un système clair de classification des risques, des exigences de transparence algorithmique inadéquates, des mesures limitées de protection des données personnelles, et des institutions insuffisantes pour l’application.
Aperçu de l’IA générative dans l’UE : La Commission européenne‘s Joint Research Centre a publié un rapport examinant l’impact de l’IA générative (GenAI) au sein de l’UE, en se concentrant sur l’innovation, la productivité, et le changement sociétal. Selon la Loi sur l’IA, de nombreux systèmes GenAI tombent dans la catégorie des « risques limités », obligeant les fournisseurs à s’assurer que les utilisateurs savent qu’ils interagissent avec des machines et que le contenu généré par l’IA est identifiable. Cela inclut les deepfakes et le contenu d’intérêt public. Les systèmes GenAI peuvent également faire partie d’applications à haut risque ou inacceptables. Bien que non explicitement mentionnés dans les cas d’utilisation à haut risque, les systèmes GenAI pourraient y être intégrés. Les pratiques prohibées incluent la manipulation et la tromperie nuisibles basées sur l’IA, avec des exemples tels que des chatbots imitant des proches ou des systèmes conçus pour dissimuler un comportement indésirable lors de l’évaluation. Étant donné que de nombreux modèles GenAI actuels présentent des capacités d’IA à usage général, ils sont soumis aux obligations pertinentes. Le bureau de l’IA de la Commission développe un Code de pratique pour détailler ces règles basées sur des pratiques à la pointe de la technologie.