Le pivot de la politique de l’IA de l’UE : adaptation ou capitulation ?

La politique de l’IA de Bruxelles n’est plus ce qu’elle était. Il y a à peine 11 mois, lorsque les co-législateurs européens ont adopté la Loi sur l’IA, l’UE se vantait de son statut de superpuissance réglementaire. D’autres règles étaient en préparation, telles que des lignes directrices détaillées, des Codes de pratique, et un Directive sur la responsabilité de l’IA, destinée à aider à attribuer des responsabilités lorsque les systèmes d’IA nuisent aux individus.

Aujourd’hui, la situation est bien différente. Au début de l’année, l’application de la Loi sur les services numériques a été suspendue. Plus récemment, la Commission européenne a annoncé avoir mis la Directive sur la responsabilité de l’IA « sur la glace ». Le Commissaire européen pour la Souveraineté technologique, Henna Virkkunen, a déclaré que les Codes de pratique serviraient principalement à « aider et soutenir » les entreprises d’IA plutôt qu’à les restreindre.

Un pivot de politique de l’IA

Qu’est-ce que cela signifie pour le pivot de la politique de l’IA ? Est-ce une capitulation face aux politiques technologiques agressives de Trump et à son approche « America First » ? Ou bien cette assouplissement des règles est-il un signe d’une stratégie intentionnelle, visant à s’adapter à un environnement changeant pour mieux soutenir les entreprises nationales et les objectifs politiques de l’UE ?

La réponse à cette question touche au cœur de la légitimité du projet européen et de son autonomie politique. Si l’Europe admet céder sous la pression des États-Unis, sa fierté et sa crédibilité en souffrent. Elle ne pourrait plus prétendre se mesurer à des puissances comme la Chine et les États-Unis.

Fatigue réglementaire et scepticisme

Il est évident que l’ennui réglementaire s’est installé à Bruxelles. Les politiciens favorables aux entreprises et les lobbyistes technologiques ont toujours été sceptiques à l’égard de toute réglementation. Ce phénomène est aggravé par la difficulté de mettre en œuvre des règles ambitieuses et de les faire respecter efficacement, surtout avec des ressources limitées. L’IA est un exemple typique de ce défi.

La décision de la Commission de ne pas poursuivre la Directive sur la responsabilité de l’IA n’est pas tant un signe de vigueur dérogatoire coordonnée qu’une incapacité simple à rassembler les troupes nécessaires pour avancer. C’est un signe de dissensus, et non de consensus.

Pressions internationales et vulnérabilités

Au sommet de l’IA à Paris, le Vice-Président américain JD Vance a critiqué les « règles internationales contraignantes » imposées aux entreprises américaines. La nouvelle administration américaine a convaincu de nombreux acteurs à Bruxelles que la dépendance de l’UE à l’égard de la technologie américaine représente une vulnérabilité réelle. L’infrastructure numérique essentielle est contrôlée par des entreprises comme Microsoft, soulevant des questions sur les conséquences d’une éventuelle interdiction de mises à jour de sécurité pour les PC européens.

Construire des capacités européennes devient donc crucial. Bien que des règles plus souples puissent sembler céder aux entreprises américaines, elles pourraient en réalité viser à encourager les entreprises européennes à s’engager dans un nouvel arrangement de politique industrielle numérique de l’UE.

Trois forces en jeu

Actuellement, trois forces influencent la politique de l’IA de l’UE, chacune tirant dans des directions différentes :

  • Les champions de la compétitivité technologique qui croient que le succès mondial dépend de la capacité à concurrencer les entreprises sur les prix ou la qualité, appelant à une déréglementation et à une approfondissement des marchés.
  • Les croisés pour la souveraineté numérique, qui soutiennent qu’une forme de développement est nécessaire pour mettre fin à la dépendance excessive aux entreprises américaines.
  • L’inertie et l’entropie propres à la machine bruxelloise, qui compliquent la création d’un front uni.

Si ces approches continuent de rivaliser pour la domination, une question reste en suspens : quelle perspective l’emportera-t-elle ? La priorité de la souveraineté numérique doit demeurer une Chefsache—une priorité absolue dans les plus hautes sphères politiques de l’UE.

Dans l’intervalle, la défense de Trump envers Poutine plonge l’Europe dans une nouvelle crise, détournant l’attention du sommet de l’IA à Paris. La menace la plus pressante n’est pas une domination technologique des États-Unis, mais plutôt un Russie apaisée et encouragée.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...