Scandales de lobbying et dérives de l’IA en Europe

A cracked mirror

De Huaweigate à l’Acte sur l’IA : comment intégrer le biais

La semaine dernière, Bruxelles a été secouée par un autre scandale de corruption. Cette fois, c’est le géant chinois des technologies, Huawei, dont les bureaux, situés juste derrière le Parlement européen, ont été perquisitionnés, accompagnés des locaux de 15 anciens et actuels députés européens des groupes EPP et S&D. Selon les procureurs belges, Huawei est sous enquête pour « corruption active au sein du Parlement européen », comprenant des rémunérations pour prendre des positions politiques, des cadeaux excessifs tels que des repas et des frais de voyage, ainsi que des invitations régulières à des matchs de football, dans le but de promouvoir des intérêts commerciaux privés dans le cadre de décisions politiques.

Cette recherche a été menée par Follow the Money, Le Soir et Knack, et la police a perquisitionné 21 adresses à Bruxelles, en Flandre, en Wallonie et au Portugal, arrêtant plusieurs personnes. Cependant, alors que tous les regards sont tournés vers Huawei et la Chine, il est crucial de souligner un scandale plus profond et systémique : l’incapacité persistante des institutions européennes à défendre correctement la démocratie contre les opérations d’influence. Il existe des échecs systémiques en matière de surveillance du lobbying, de transparence et d’application de l’éthique, y compris en ce qui concerne les cadeaux aux députés européens et les conflits d’intérêts. L’UE doit consolider et accélérer la mise en œuvre d’un organe d’éthique pour établir des normes éthiques communes à travers les institutions de l’UE.

Les enjeux de l’Acte sur l’IA

Dans cet épisode, un chercheur va discuter d’un rapport qu’il a publié en janvier, axé sur le processus de définition des normes de l’Acte sur l’IA. Il a découvert que de nombreuses grandes entreprises technologiques mondiales, dont Huawei, sont profondément impliquées dans la création de normes permissives et légères qui risquent de vider l’Acte sur l’IA de son contenu. En résumé, ce rapport montre qu’avec peu ou pas de transparence, des organisations privées de définition des normes écrivent des règles qui ont un statut légal dans l’UE. Les experts indépendants et la société civile sont sous-représentés, sous-financés et luttent face à la domination des entreprises.

Qui nous sommes

Ce podcast est produit par des ONG qui sensibilisent à l’importance d’une bonne gouvernance dans l’UE en recherchant des problématiques telles que le lobbying des grandes industries, la capture des décisions par les entreprises, la corruption, les violations des droits humains, en particulier dans des domaines comme la technologie, l’agroalimentaire, et la finance.

Les effets de l’IA sur la société

L’Acte sur l’IA vise à garantir que l’IA soit adoptée par la société. Cependant, cela a prouvé être dangereux. Des scandales récents, comme celui de l’algorithme utilisé par le gouvernement néerlandais pour détecter la fraude, ont montré que ces systèmes peuvent être biaisés contre les parents isolés et les personnes ne parlant pas néerlandais, entraînant des conséquences désastreuses pour des milliers de vies.

Les normes de l’IA sont souvent formulées de manière vague, laissant des questions fondamentales aux organisations de normalisation privées, dominées par les experts de l’industrie. Cela pose un réel problème, car il est essentiel que les décisions concernant les droits fondamentaux soient prises par des institutions démocratiques, plutôt que par des entités privées.

Standardisation et influence des entreprises

La normalisation est un processus dominé par l’industrie, où les entreprises définissent les normes techniques. Ce processus, qui devrait être transparent, est souvent fermé aux autres intérêts sociétaux. Les grandes entreprises technologiques, comme Microsoft et Huawei, ont un avantage considérable en envoyant plusieurs experts à ces organisations de normalisation, ce qui leur permet de façonner les standards à leur avantage.

Il est crucial de remettre en question le processus de normalisation en tant qu’outil pour la politique publique. Les droits fondamentaux ne peuvent pas être externalisés à des entités privées dominées par des experts de l’industrie. Les citoyens doivent pouvoir décider quand et comment ces technologies sont utilisées, plutôt que de laisser les algorithmes agir sans transparence.

Ce podcast souligne l’importance de maintenir un débat démocratique sur l’utilisation de l’IA et de s’assurer que les décisions concernant son application soient entre les mains des institutions démocratiques plutôt que de sociétés privées.

Articles

L’intelligence artificielle responsable : vers un avenir financier sûr

La discussion mondiale sur l'intelligence artificielle a évolué vers une question cruciale : comment utiliser ces outils de manière responsable, en particulier dans le secteur financier où la...

Certification pour une IA de confiance et durable

La certification transforme la réglementation en un catalyseur pour l'adoption de l'IA fiable, offrant un avantage concurrentiel aux entreprises qui adoptent la conformité tôt. En 2025, la loi sur...

Confiance et transparence : l’avenir de l’IA explicable

L'IA explicable (XAI) est essentielle pour établir la confiance, garantir la transparence et permettre la responsabilité dans des domaines critiques comme la santé et la finance. Les réglementations...

Réguler l’IA pour un avenir responsable

L'intelligence artificielle est la technologie révolutionnaire la plus transformative de notre époque, mais elle comporte également d'immenses risques. Les systèmes d'IA sont souvent biaisés et...

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...