L’ultime bataille des lobbyistes contre le Code de Pratique de l’IA

A shield

Les lobbyistes intensifient leurs efforts pour contrecarrer le Code de Pratique sur l’IA

Date de création : 30 juin 2025

Les lobbyistes font une tentative désespérée pour retarder les règles concernant l’IA Générale à Usage Général (GPAI), alors que la Commission européenne s’apprête à publier le très attendu Code de Pratique dans les prochains jours.

Contexte du Code de Pratique

Ce Code, qui s’appliquera aux modèles d’IA polyvalents soutenant des technologies comme ChatGPT d’OpenAI, a suscité de nombreuses tensions, avec près de 1 000 lobbyistes et experts participant au processus de rédaction aux côtés de présidents indépendants.

Parallèlement, l’industrie et la présidence polonaise du Conseil ont suggéré que la Commission « arrête le compteur » sur la mise en œuvre de la Loi sur l’IA, étant donné que plusieurs directives et normes sont encore en attente.

Réactions des responsables politiques

Début juin, la Commissaire aux Technologies, Henna Virkkunen, a déclaré au Conseil que le report de certaines parties de la loi ne pouvait « pas être exclu » si les outils de mise en œuvre n’étaient pas prêts. Le Code de Pratique est censé aider les développeurs d’IA à se conformer aux règles de la loi sur les GPAI, qui devraient entrer en vigueur le 2 août.

Cependant, la Commission n’a pas formellement fermé la porte à un report de certaines échéances liées à la Loi sur l’IA, tout en indiquant que les règles pour les GPAI s’appliqueront bien en août.

Pressions de l’industrie

Cela n’a pas empêché le lobby des grandes entreprises technologiques, CCIA Europe, de faire une dernière demande aux chefs de gouvernement de l’UE – qui se sont réunis au Conseil européen la semaine dernière – pour retarder les règles concernant les GPAI. Avec un Code toujours pas prêt quelques semaines avant l’entrée en vigueur des règles, l’UE risque de « ralentir l’innovation dans son ensemble », a déclaré Daniel Friedlaender, responsable de bureau de CCIA Europe.

Appels à la résistance

Cependant, des universitaires et la société civile ont également poussé leur propre lettre ouverte la semaine dernière, défendant la Loi sur l’IA et appelant la Commission à « résister à la pression » pour contrecarrer les règles. « Les risques systémiques liés aux modèles GPAI continuent d’avancer », a averti la lettre, citant des « capacités dangereuses liées aux menaces cybernétiques, biologiques, radiologiques et nucléaires. »

Les membres du Parlement soutiennent également la mise en œuvre de la loi telle que prévue.

Urgence de finaliser le Code de Pratique

« Un énorme effort est maintenant nécessaire pour finaliser le Code de Pratique et les normes nécessaires pour l’évaluation de conformité dès que possible. Il ne peut y avoir aucun retard supplémentaire », a déclaré Michael McNamara, co-président du groupe de travail du Parlement sur la Loi sur l’IA.

Sergey Lagodinsky, député ayant participé aux négociations de la Loi sur l’IA, a également déclaré qu’il était nécessaire de mettre en place des « mécanismes robustes » pour garantir que la loi soit « effectivement mise en œuvre et appliquée. »

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...