Gouvernance de l’IA : Les droits humains en jeu face à l’alliance des géants technologiques et des autoritaires

A mirrored globe.

Gouvernance de l’IA : Les droits de l’homme en équilibre alors que les géants de la technologie et les autoritaires convergent

Les algorithmes décident qui vit et qui meurt dans la bande de Gaza. La surveillance alimentée par l’intelligence artificielle (IA) suit les journalistes en Serbie. Des armes autonomes sont exhibées dans les rues de Pékin comme des symboles de puissance technologique. Ce n’est pas de la fiction dystopique ; c’est la réalité d’aujourd’hui. À mesure que l’IA redéfinit le monde, la question de savoir qui contrôle cette technologie et comment elle est gouvernée est devenue une priorité urgente.

Défaillances de la gouvernance

L’adoption par l’Assemblée générale des Nations Unies d’une résolution visant à établir les premiers mécanismes internationaux — un Panel scientifique international indépendant sur l’IA et un Dialogue mondial sur la gouvernance de l’IA — représente un premier pas positif vers des réglementations plus strictes. Toutefois, le processus de négociation a révélé de profondes fractures géopolitiques.

À travers son Initiative mondiale de gouvernance de l’IA, la Chine promeut une approche dirigée par l’État qui exclut entièrement la société civile des discussions sur la gouvernance, tout en se positionnant comme un leader du sud global. Elle présente le développement de l’IA comme un outil d’avancement économique et d’objectifs sociaux, offrant cette vision comme une alternative à la domination technologique occidentale.

De son côté, les États-Unis, sous l’administration de Donald Trump, ont adopté le technonationalisme, considérant l’IA comme un outil de levier économique et géopolitique. Des décisions récentes, telles qu’une taxe de 100 % sur les puces d’IA importées et l’achat d’une participation de 10 % dans le fabricant de puces Intel, signalent un retrait de la coopération multilatérale au profit d’arrangements bilatéraux transactionnels.

L’Union européenne a adopté une approche différente, mettant en œuvre le premier Acte sur l’IA au monde, qui entrera en vigueur en août 2026. Son cadre réglementaire basé sur le risque représente une avancée, interdisant les systèmes d’IA jugés à « risque inacceptable » tout en exigeant des mesures de transparence pour les autres. Cependant, la législation présente des lacunes inquiétantes.

Bien qu’il ait d’abord été proposé d’interdire sans condition la technologie de reconnaissance faciale en direct, la version finale de l’Acte sur l’IA permet une utilisation limitée avec des garanties que les groupes de droits humains jugent insuffisantes. De plus, bien que les technologies de reconnaissance émotionnelle soient interdites dans les écoles et sur les lieux de travail, elles restent autorisées pour les forces de l’ordre et le contrôle de l’immigration, une décision particulièrement préoccupante compte tenu des biais raciaux documentés des systèmes existants. La coalition ProtectNotSurveil a averti que les migrants et les minorités raciales en Europe servent de terrains d’essai pour les outils de surveillance et de suivi alimentés par l’IA. Plus crucialement, l’Acte sur l’IA exonère les systèmes utilisés à des fins de sécurité nationale et les drones autonomes utilisés dans les conflits armés.

Urgence d’un changement

Les impacts climatiques et environnementaux croissants du développement de l’IA ajoutent une couche d’urgence supplémentaire aux questions de gouvernance. Les interactions avec les chatbots alimentés par l’IA consomment environ dix fois plus d’électricité que les recherches Internet standard. L’Agence internationale de l’énergie prévoit que la consommation d’électricité des centres de données mondiaux doublera d’ici 2030, l’IA étant à l’origine de la majeure partie de cette augmentation. Les émissions de Microsoft ont augmenté de 29 % depuis 2020 en raison des infrastructures liées à l’IA, tandis que Google a discrètement retiré son engagement de zéro émission de son site Web alors que les opérations liées à l’IA augmentaient son empreinte carbone de 48 % entre 2019 et 2023. L’expansion de l’IA entraîne la construction de nouvelles centrales alimentées au gaz et retarde les plans de désaffectation des installations au charbon, en contradiction directe avec la nécessité de mettre fin à l’utilisation des combustibles fossiles pour limiter les augmentations de température mondiales.

Des champions sont nécessaires

Le patchwork actuel de réglementations régionales, de résolutions internationales non contraignantes et d’auto-réglementations laxistes de l’industrie est largement insuffisant pour gouverner une technologie ayant des implications mondiales aussi profondes. L’intérêt personnel des États continue de prévaloir sur les besoins collectifs de l’humanité et les droits universels, tandis que les entreprises qui possèdent les systèmes d’IA accumulent un pouvoir immense, largement non contrôlé.

Le chemin à suivre nécessite une reconnaissance que la gouvernance de l’IA n’est pas seulement une question technique ou économique — il s’agit de distribution de pouvoir et de responsabilité. Tout cadre réglementaire qui ne parvient pas à confronter la concentration des capacités d’IA entre les mains de quelques géants de la technologie sera inévitablement insuffisant. Les approches qui excluent les voix de la société civile ou qui privilégient l’avantage compétitif national au détriment des protections des droits de l’homme prouveront leur inadéquation face au défi.

La communauté internationale doit urgemment renforcer les mécanismes de gouvernance de l’IA, en commençant par des accords contraignants sur les systèmes d’armes autonomes létales qui ont stagné dans les discussions de l’ONU depuis plus d’une décennie. L’UE doit combler les lacunes de son Acte sur l’IA, notamment en ce qui concerne les applications militaires et les technologies de surveillance. Les gouvernements du monde entier doivent établir des mécanismes de coordination qui peuvent efficacement contrer le contrôle des géants de la technologie sur le développement et le déploiement de l’IA.

La société civile ne doit pas se battre seule dans cette lutte. Tout espoir de changement vers une gouvernance de l’IA centrée sur les droits de l’homme dépend de l’émergence de champions au sein du système international pour donner la priorité aux droits de l’homme plutôt qu’aux intérêts nationaux étroitement définis et aux profits des entreprises. Avec le développement de l’IA s’accélérant rapidement, il n’y a pas de temps à perdre.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...