Experts recherchés pour renforcer la gouvernance de l’IA en Europe

A blueprint

La Newsletter de la Loi sur l’IA de l’UE #80 : La Commission Recherche des Experts pour le Panel Scientifique sur l’IA

Bienvenue dans la Newsletter de la Loi sur l’IA de l’UE, une brève newsletter bihebdomadaire fournissant des développements et analyses à jour sur la loi sur l’intelligence artificielle en Europe.

Processus Législatif

La Commission recherche des experts pour le Panel Scientifique sur l’IA : La Commission européenne établit un panel scientifique d’experts indépendants pour aider à la mise en œuvre et à l’application de la Loi sur l’IA. Le mandat du panel se concentre sur les modèles et systèmes d’IA à usage général (GPAI). Il conseillera l’Office de l’IA de l’UE et les autorités nationales sur les risques systémiques, la classification des modèles, les méthodes d’évaluation, et la surveillance du marché transfrontalier, tout en alertant l’Office sur les risques émergents. La Commission recherche 60 membres pour un mandat renouvelable de deux ans. Les candidats doivent avoir une expertise en GPAI, en impacts de l’IA ou dans des domaines connexes tels que l’évaluation des modèles, l’évaluation et la mitigation des risques, la cybersécurité, les risques systémiques et les mesures de calcul. Un doctorat ou une expérience équivalente est requis, et les experts doivent maintenir leur indépendance vis-à-vis des fournisseurs d’IA. La sélection garantira l’équilibre entre les sexes et la représentation des pays de l’UE et de l’EEE/EFTA. Bien que la citoyenneté de l’UE ne soit pas obligatoire, 80 % des experts doivent provenir d’États membres de l’UE ou d’EFTA. Les candidatures se clôturent le 14 septembre.

Le Future of Life Institute a également rédigé un article de blog soulignant les raisons pour lesquelles les experts devraient rejoindre le panel.

Le 1er anniversaire de l’Office de l’IA de l’UE :

L’Office de l’IA de l’UE célèbre son premier anniversaire, ayant recruté plus de 100 experts dans les domaines de la politique de l’IA, de la recherche et de l’innovation, de la santé, de la réglementation, et de la coopération internationale. Parmi ses réalisations, on trouve la mise en œuvre de la Loi sur l’IA, la création de directives pratiques, d’outils, et de structures de gouvernance. Les accomplissements clés incluent l’émission de lignes directrices concernant la définition et les prohibitions des systèmes d’IA, l’établissement d’un référentiel de littératie en matière d’IA, et la collaboration avec le Conseil de l’IA des États membres. Le panel scientifique est en cours de création, avec un forum consultatif à suivre. Les initiatives à venir incluent la publication imminente d’un Code de pratique sur l’IA à usage général, élaboré avec l’apport de plus de 1 000 experts, devant être évalué d’ici août 2025. Des lignes directrices clarifiant les concepts de GPAI sont en développement, et une consultation publique sur les systèmes d’IA à haut risque est actuellement ouverte. L’office participe activement aux efforts de standardisation et prévoit de lancer un Service Desk de la Loi sur l’IA pour fournir des conseils aux développeurs, aux déployeurs, et aux autorités.

Analyses

Lettre appelant à des règles GPAI au service des intérêts des entreprises et des citoyens européens : Une coalition de chercheurs en IA, de représentants de la société civile, de l’industrie et du milieu académique, y compris les lauréats du Nobel Daron Acemoglu et Geoffrey Hinton, a écrit à la Présidente de la Commission européenne. Leur lettre exhorte les dirigeants de l’UE à résister aux pressions de ceux qui attaquent les règles sur l’IA à usage général. La coalition soutient que l’UE peut démontrer sa capacité à fournir des outils propices à l’innovation industrielle, tels que le Code de pratique, sans compromettre la santé, la sécurité, et les droits fondamentaux. Le Code de pratique, élaboré pendant neuf mois avec une large consultation des parties prenantes, facilite le respect des obligations GPAI. Il affecte principalement 5 à 15 grandes entreprises et s’aligne sur les pratiques de gestion des risques existantes. La coalition recommande trois éléments pour une gouvernance GPAI à l’épreuve du temps : 1) des tests tiers obligatoires pour les modèles de risque systémique dans le Code de pratique afin d’assurer des garanties efficaces et de favoriser la confiance ; 2) des mécanismes d’examen robustes pouvant s’adapter rapidement aux risques émergents et aux pratiques de sécurité, y compris des mises à jour d’urgence pour les menaces imminentes ; et 3) le renforcement des capacités d’application de l’Office de l’IA en élargissant l’unité de sécurité de l’IA à 100 employés et l’équipe de mise en œuvre à 200, tout en recrutant des experts en sécurité de l’IA de premier plan. La lettre a été d’abord partagée par le Financial Times.

Les États-Unis font face à un environnement réglementaire de plus en plus complexe : Bella Zielinski et Jacob Wulff Wold d’Euractiv soutiennent que les États-Unis sont confrontés à un paysage réglementaire complexe malgré les critiques des réglementations technologiques de l’UE. En 2024, les États ont introduit près de 700 projets de loi liés à l’IA, dont 113 sont devenus loi, et des centaines d’autres ont été introduits en 2025. Des États comme le Colorado et le Texas ont adopté des approches complètes similaires à la Loi sur l’IA de l’UE, tandis que la Californie a adopté une législation ciblée sur des problèmes spécifiques tels que les deepfakes et les répliques numériques. Meta s’est plainte auprès de la Maison Blanche d’un « environnement réglementaire ingérable » avec des normes contradictoires dépassant les restrictions de l’UE. Cependant, ce patchwork au niveau des États pourrait bénéficier à l’application de la Loi sur l’IA de l’UE contre les entreprises américaines. L’administration de Trump a changé d’orientation vers l’IA en tant qu’outil géopolitique, révoquant l’ordre exécutif de Biden sur les risques de l’IA et prévoyant de renforcer la domination mondiale de l’Amérique en matière d’IA. Cet environnement politique hostile pourrait décourager d’autres législations sur l’IA au niveau des États. Les grandes entreprises technologiques font pression pour une réglementation fédérale afin de supplanter les lois des États. Le résultat – soit un patchwork étatique, soit une déréglementation – pourrait avoir des répercussions sur l’approche réglementaire de l’UE.

La nouvelle loi sur l’IA du Kazakhstan inspirée par l’UE : Selon un article d’Euractiv, le Kazakhstan s’efforce de devenir le premier pays d’Asie centrale à réglementer de manière exhaustive l’IA, s’inspirant de la Loi sur l’IA de l’UE. Le projet de loi ‘Sur l’intelligence artificielle’, qui a reçu une approbation initiale de la chambre basse du Parlement kazakh en mai, démontre son engagement en faveur d’une réglementation centrée sur l’humain pour l’IA. Selon Shoplan Saimova de l’Institut de parlementarisme, la Loi sur l’IA de l’UE sert de modèle, et le Kazakhstan vise à mener plutôt qu’à suivre, développant un cadre aligné sur les priorités nationales qui établit la confiance entre les humains et les systèmes d’IA tout en protégeant les intérêts publics. La législation, développée par le biais d’une large consultation des parties prenantes, vise à régir l’IA dans toute la société. Cependant, une récente analyse académique par des chercheurs kazakhs identifie quatre principales lacunes par rapport au cadre de l’UE : l’absence d’un système clair de classification des risques, des exigences de transparence algorithmique inadéquates, des mesures limitées de protection des données personnelles, et des institutions insuffisantes pour l’application.

Aperçu de l’IA générative dans l’UE : La Commission européenne‘s Joint Research Centre a publié un rapport examinant l’impact de l’IA générative (GenAI) au sein de l’UE, en se concentrant sur l’innovation, la productivité, et le changement sociétal. Selon la Loi sur l’IA, de nombreux systèmes GenAI tombent dans la catégorie des « risques limités », obligeant les fournisseurs à s’assurer que les utilisateurs savent qu’ils interagissent avec des machines et que le contenu généré par l’IA est identifiable. Cela inclut les deepfakes et le contenu d’intérêt public. Les systèmes GenAI peuvent également faire partie d’applications à haut risque ou inacceptables. Bien que non explicitement mentionnés dans les cas d’utilisation à haut risque, les systèmes GenAI pourraient y être intégrés. Les pratiques prohibées incluent la manipulation et la tromperie nuisibles basées sur l’IA, avec des exemples tels que des chatbots imitant des proches ou des systèmes conçus pour dissimuler un comportement indésirable lors de l’évaluation. Étant donné que de nombreux modèles GenAI actuels présentent des capacités d’IA à usage général, ils sont soumis aux obligations pertinentes. Le bureau de l’IA de la Commission développe un Code de pratique pour détailler ces règles basées sur des pratiques à la pointe de la technologie.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...