Le pivot de la politique de l’IA de l’UE : adaptation ou capitulation ?

La politique de l’IA de Bruxelles n’est plus ce qu’elle était. Il y a à peine 11 mois, lorsque les co-législateurs européens ont adopté la Loi sur l’IA, l’UE se vantait de son statut de superpuissance réglementaire. D’autres règles étaient en préparation, telles que des lignes directrices détaillées, des Codes de pratique, et un Directive sur la responsabilité de l’IA, destinée à aider à attribuer des responsabilités lorsque les systèmes d’IA nuisent aux individus.

Aujourd’hui, la situation est bien différente. Au début de l’année, l’application de la Loi sur les services numériques a été suspendue. Plus récemment, la Commission européenne a annoncé avoir mis la Directive sur la responsabilité de l’IA « sur la glace ». Le Commissaire européen pour la Souveraineté technologique, Henna Virkkunen, a déclaré que les Codes de pratique serviraient principalement à « aider et soutenir » les entreprises d’IA plutôt qu’à les restreindre.

Un pivot de politique de l’IA

Qu’est-ce que cela signifie pour le pivot de la politique de l’IA ? Est-ce une capitulation face aux politiques technologiques agressives de Trump et à son approche « America First » ? Ou bien cette assouplissement des règles est-il un signe d’une stratégie intentionnelle, visant à s’adapter à un environnement changeant pour mieux soutenir les entreprises nationales et les objectifs politiques de l’UE ?

La réponse à cette question touche au cœur de la légitimité du projet européen et de son autonomie politique. Si l’Europe admet céder sous la pression des États-Unis, sa fierté et sa crédibilité en souffrent. Elle ne pourrait plus prétendre se mesurer à des puissances comme la Chine et les États-Unis.

Fatigue réglementaire et scepticisme

Il est évident que l’ennui réglementaire s’est installé à Bruxelles. Les politiciens favorables aux entreprises et les lobbyistes technologiques ont toujours été sceptiques à l’égard de toute réglementation. Ce phénomène est aggravé par la difficulté de mettre en œuvre des règles ambitieuses et de les faire respecter efficacement, surtout avec des ressources limitées. L’IA est un exemple typique de ce défi.

La décision de la Commission de ne pas poursuivre la Directive sur la responsabilité de l’IA n’est pas tant un signe de vigueur dérogatoire coordonnée qu’une incapacité simple à rassembler les troupes nécessaires pour avancer. C’est un signe de dissensus, et non de consensus.

Pressions internationales et vulnérabilités

Au sommet de l’IA à Paris, le Vice-Président américain JD Vance a critiqué les « règles internationales contraignantes » imposées aux entreprises américaines. La nouvelle administration américaine a convaincu de nombreux acteurs à Bruxelles que la dépendance de l’UE à l’égard de la technologie américaine représente une vulnérabilité réelle. L’infrastructure numérique essentielle est contrôlée par des entreprises comme Microsoft, soulevant des questions sur les conséquences d’une éventuelle interdiction de mises à jour de sécurité pour les PC européens.

Construire des capacités européennes devient donc crucial. Bien que des règles plus souples puissent sembler céder aux entreprises américaines, elles pourraient en réalité viser à encourager les entreprises européennes à s’engager dans un nouvel arrangement de politique industrielle numérique de l’UE.

Trois forces en jeu

Actuellement, trois forces influencent la politique de l’IA de l’UE, chacune tirant dans des directions différentes :

  • Les champions de la compétitivité technologique qui croient que le succès mondial dépend de la capacité à concurrencer les entreprises sur les prix ou la qualité, appelant à une déréglementation et à une approfondissement des marchés.
  • Les croisés pour la souveraineté numérique, qui soutiennent qu’une forme de développement est nécessaire pour mettre fin à la dépendance excessive aux entreprises américaines.
  • L’inertie et l’entropie propres à la machine bruxelloise, qui compliquent la création d’un front uni.

Si ces approches continuent de rivaliser pour la domination, une question reste en suspens : quelle perspective l’emportera-t-elle ? La priorité de la souveraineté numérique doit demeurer une Chefsache—une priorité absolue dans les plus hautes sphères politiques de l’UE.

Dans l’intervalle, la défense de Trump envers Poutine plonge l’Europe dans une nouvelle crise, détournant l’attention du sommet de l’IA à Paris. La menace la plus pressante n’est pas une domination technologique des États-Unis, mais plutôt un Russie apaisée et encouragée.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...