De Huaweigate à l’Acte sur l’IA : comment intégrer le biais
La semaine dernière, Bruxelles a été secouée par un autre scandale de corruption. Cette fois, c’est le géant chinois des technologies, Huawei, dont les bureaux, situés juste derrière le Parlement européen, ont été perquisitionnés, accompagnés des locaux de 15 anciens et actuels députés européens des groupes EPP et S&D. Selon les procureurs belges, Huawei est sous enquête pour « corruption active au sein du Parlement européen », comprenant des rémunérations pour prendre des positions politiques, des cadeaux excessifs tels que des repas et des frais de voyage, ainsi que des invitations régulières à des matchs de football, dans le but de promouvoir des intérêts commerciaux privés dans le cadre de décisions politiques.
Cette recherche a été menée par Follow the Money, Le Soir et Knack, et la police a perquisitionné 21 adresses à Bruxelles, en Flandre, en Wallonie et au Portugal, arrêtant plusieurs personnes. Cependant, alors que tous les regards sont tournés vers Huawei et la Chine, il est crucial de souligner un scandale plus profond et systémique : l’incapacité persistante des institutions européennes à défendre correctement la démocratie contre les opérations d’influence. Il existe des échecs systémiques en matière de surveillance du lobbying, de transparence et d’application de l’éthique, y compris en ce qui concerne les cadeaux aux députés européens et les conflits d’intérêts. L’UE doit consolider et accélérer la mise en œuvre d’un organe d’éthique pour établir des normes éthiques communes à travers les institutions de l’UE.
Les enjeux de l’Acte sur l’IA
Dans cet épisode, un chercheur va discuter d’un rapport qu’il a publié en janvier, axé sur le processus de définition des normes de l’Acte sur l’IA. Il a découvert que de nombreuses grandes entreprises technologiques mondiales, dont Huawei, sont profondément impliquées dans la création de normes permissives et légères qui risquent de vider l’Acte sur l’IA de son contenu. En résumé, ce rapport montre qu’avec peu ou pas de transparence, des organisations privées de définition des normes écrivent des règles qui ont un statut légal dans l’UE. Les experts indépendants et la société civile sont sous-représentés, sous-financés et luttent face à la domination des entreprises.
Qui nous sommes
Ce podcast est produit par des ONG qui sensibilisent à l’importance d’une bonne gouvernance dans l’UE en recherchant des problématiques telles que le lobbying des grandes industries, la capture des décisions par les entreprises, la corruption, les violations des droits humains, en particulier dans des domaines comme la technologie, l’agroalimentaire, et la finance.
Les effets de l’IA sur la société
L’Acte sur l’IA vise à garantir que l’IA soit adoptée par la société. Cependant, cela a prouvé être dangereux. Des scandales récents, comme celui de l’algorithme utilisé par le gouvernement néerlandais pour détecter la fraude, ont montré que ces systèmes peuvent être biaisés contre les parents isolés et les personnes ne parlant pas néerlandais, entraînant des conséquences désastreuses pour des milliers de vies.
Les normes de l’IA sont souvent formulées de manière vague, laissant des questions fondamentales aux organisations de normalisation privées, dominées par les experts de l’industrie. Cela pose un réel problème, car il est essentiel que les décisions concernant les droits fondamentaux soient prises par des institutions démocratiques, plutôt que par des entités privées.
Standardisation et influence des entreprises
La normalisation est un processus dominé par l’industrie, où les entreprises définissent les normes techniques. Ce processus, qui devrait être transparent, est souvent fermé aux autres intérêts sociétaux. Les grandes entreprises technologiques, comme Microsoft et Huawei, ont un avantage considérable en envoyant plusieurs experts à ces organisations de normalisation, ce qui leur permet de façonner les standards à leur avantage.
Il est crucial de remettre en question le processus de normalisation en tant qu’outil pour la politique publique. Les droits fondamentaux ne peuvent pas être externalisés à des entités privées dominées par des experts de l’industrie. Les citoyens doivent pouvoir décider quand et comment ces technologies sont utilisées, plutôt que de laisser les algorithmes agir sans transparence.
Ce podcast souligne l’importance de maintenir un débat démocratique sur l’utilisation de l’IA et de s’assurer que les décisions concernant son application soient entre les mains des institutions démocratiques plutôt que de sociétés privées.