Silicon Valley et la bataille contre les règles technologiques de l’UE

A protest sign that reads "No to EU Rules"

Silicon Valley et la lutte contre les règles technologiques de l’UE

Les grandes entreprises technologiques de la Silicon Valley prennent de plus en plus confiance dans leurs efforts pour contester les régulations de l’UE, croyant que le soutien de la Trump administration leur permettra de combattre ce qu’elles considèrent comme des règles hostiles concernant l’intelligence artificielle et la domination du marché.

Les efforts de contestation des régulations

Cette année, le propriétaire de Facebook, Meta, a mené la charge contre l’Acte sur l’IA de l’UE, selon des sources familières avec sa stratégie. Les lobbyistes technologiques dans le bloc estiment qu’ils peuvent réduire avec succès la mise en œuvre d’une loi considérée comme le régime le plus strict au monde concernant cette technologie de pointe.

Silicon Valley pousse également Bruxelles à limiter l’application de la Digital Markets Act, qui vise à réduire les abus de marché par les grandes plateformes en ligne et peut imposer d’importantes amendes financières aux entreprises.

Un nouveau soutien politique

Leur cause a été renforcée par la nouvelle administration. Le vice-président JD Vance a utilisé son récent voyage en Europe pour critiquer la législation de l’UE sur la technologie, dénonçant les règles « onéreuses » du bloc. Il a également appelé à une réglementation de l’IA qui ne « strangle » pas le secteur en pleine évolution.

Les lobbyistes d’autres grandes entreprises technologiques ont souligné la présence des cadres de la technologie lors de l’inauguration de Donald Trump, notamment Sundar Pichai de Google, Jeff Bezos d’Amazon et Tim Cook d’Apple, comme illustration de la nouvelle réalité politique à Washington.

La position de l’UE face à la pression américaine

La responsable technologique de l’UE, Henna Virkkunen, a déclaré au Financial Times que l’Europe est « pleinement engagée à faire respecter nos règles », malgré la pression des États-Unis.

Cependant, plus tôt ce mois-ci, la Commission européenne a retiré sa directive sur la responsabilité de l’IA, qui était destinée à obliger les entreprises technologiques à payer pour tout dommage causé par des outils ou systèmes d’IA, dans le cadre d’une poussée plus large pour la déréglementation.

Une bataille immédiate en vue

La bataille la plus immédiate se concentrera sur le code de conduite de l’IA, attendu en avril, qui décrira comment les entreprises peuvent mettre en œuvre les règles de son Acte sur l’IA. Meta a clairement indiqué qu’elle ne signera pas le code volontaire, le lobbyiste en chef de l’entreprise, Joel Kaplan, affirmant qu’il impose des exigences « inapplicables et techniquement irréalisables ».

La société, dirigée par Mark Zuckerberg, se sentait abandonnée par l’administration Biden précédente dans son opposition à la réglementation de l’UE. Mais elle estime maintenant que l’administration américaine soutient son point de vue et peut également exercer plus de pression sur le bloc.

Les préoccupations de l’UE sur la réglementation technologique

En septembre, l’entreprise a dirigé une lettre ouverte, co-signée par 50 autres groupes, y compris Ericsson et Spotify, arguant que le cadre réglementaire de l’Europe étouffe l’innovation et laisse le continent à la traîne dans le développement de l’IA.

Meta a également déclaré qu’elle ne peut pas expédier des modèles de langage multimodal ou son dernier assistant IA dans l’UE en raison des règles de confidentialité du bloc. D’autres entreprises technologiques américaines, comme Google, ont également intensifié leurs critiques de la réglementation sur l’IA.

Les implications pour l’avenir de la réglementation

Un autre point clé de pression des grandes entreprises technologiques est l’application de la Digital Markets Act, qui vise à traiter la domination des soi-disant gardiens numériques des plus grandes plateformes en ligne. Si elles sont reconnues coupables de non-conformité, les entreprises risquent de lourdes amendes pouvant atteindre jusqu’à 10 % de leur chiffre d’affaires mondial.

Les entreprises comme Apple, Meta et Alphabet (propriétaire de Google) ont tous été ciblées par des enquêtes après l’entrée en vigueur des nouvelles règles en 2023. Mais depuis la victoire électorale de Trump en novembre, la Commission européenne réévalue ses enquêtes.

Trump a attaqué directement les amendes de l’UE sur les entreprises américaines, les qualifiant de « forme de taxation » lors du Forum économique mondial à Davos le mois dernier.

Les réactions des leaders européens

Les groupes de la Silicon Valley cherchent soit à rouvrir la DMA, soit à émettre des clarifications qui précisent son champ d’application et fournissent des orientations plus explicites sur la façon dont elle s’applique. Un responsable senior d’un géant technologique américain a déclaré qu’une application plus faible signifierait que l’UE s’abstienne d’imposer des amendes en vertu de la réglementation.

La plupart des dirigeants européens semblent réticents à confronter les États-Unis sur la technologie, ce qui pourrait avoir des implications plus larges et en matière de sécurité. Selon Giorgos Verdi, un chercheur politique au Conseil européen des relations étrangères, cela ne ferait pas seulement un mauvais précédent pour l’approche réglementaire de l’UE, mais pourrait même encourager Trump et ses alliés technologiques à voir l’inaction comme un signe de faiblesse.

Des dizaines d’entreprises technologiques et d’ONG ont déjà appelé l’UE à appliquer correctement ses règles numériques et ont accusé les grandes entreprises technologiques de « chercher à mobiliser l’administration Trump » et de « stifler les concurrents potentiels ».

Virkkunen a rappelé aux entreprises américaines que « l’Union européenne est l’un des plus grands marchés pour les grandes technologies ».

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...