Les MEP mettent en garde Bruxelles sur l’assouplissement des réglementations sur les risques liés à l’IA
Une inquiétude croissante s’exprime parmi les Députés européens (MEP) concernant les propositions de modification du code de pratique entourant l’utilisation de l’intelligence artificielle (IA). Dans une lettre adressée à la Commission européenne, plusieurs MEPs, dont la Néerlandaise Kim van Sparrentak, ont fait part de leur préoccupation face à des changements potentiels qui pourraient rendre ce code entièrement volontaire pour les fournisseurs de systèmes d’IA à usage général, notamment en ce qui concerne l’évaluation et l’atténuation des risques pour les droit fondamentaux et la démocratie.
Une modification inquiétante
Les MEPs ont collaboré avec la Commission et les États membres sur ce projet de législation, mais ils affirment maintenant que la Commission a proposé de adoucir le code de pratique. Kim van Sparrentak a qualifié ce changement de « incroyable » sur les réseaux sociaux, soulignant que la dernière version du code de pratique de l’Acte sur l’IA compromet sérieusement son essence. Elle a déclaré : « Les droits fondamentaux et la démocratie ne sont pas volontaires. »
Les implications pour les entreprises technologiques
Cette modification signifierait que les entreprises technologiques derrière des systèmes comme ChatGPT, Copilot et DeepSeek ne seraient plus tenues de tester leurs systèmes pour des contenus discriminatoires ou racistes. En outre, cela pourrait permettre à ces systèmes de subir des pressions politiques pour adopter des positions plus extrêmes ou de faciliter des interférences dans des élections étrangères.
Appel à la protection des principes fondamentaux
Les signataires de la lettre soutiennent que rendre cette partie du code volontaire n’a jamais été l’intention de l’accord initial. Ils qualifient cette approche de dangereuse, undémocratique et de créatrice d’incertitude juridique en réinterprétant et en restreignant un texte légal sur lequel les co-législateurs s’étaient accordés. Ils demandent à la Commission de veiller à ce que le code de pratique réflète les principes fondamentaux de l’Acte sur l’IA et protège notre société contre les risques systémiques pour la santé, la sécurité, les droits fondamentaux et la démocratie.
Réactions des entreprises technologiques américaines
Les entreprises technologiques américaines, en particulier, ont milité contre ce qu’elles qualifient de sur-réglementation en Europe. Le mois dernier, le président Donald Trump a appelé à des tarifs sur les pays qui gênent la compétitivité mondiale des entreprises américaines. Cette initiative vise spécifiquement le secteur technologique américain, que la Maison Blanche présente comme une victime d’« extorsion à l’étranger et de pénalités injustes ».
Il est crucial de suivre de près ces développements, car ils pourraient avoir un impact significatif sur l’avenir de l’IA et sur la manière dont les droits fondamentaux sont protégés dans un paysage technologique en constante évolution.