G7 : Un manqué sur la gouvernance mondiale de l’IA

A magnifying glass over a network of AI algorithms

Le Sommet du G7 et l’Opportunité Manquée pour la Gouvernance Mondiale de l’IA

Alors que les dirigeants du G7 se sont réunis en Alberta, au Canada, la semaine dernière, l’ordre du jour a englobé des développements géopolitiques pressants au Moyen-Orient, en Ukraine, ainsi que des enjeux liés au commerce et à la sécurité énergétique. Cependant, le sujet de la gouvernance des modèles et systèmes d’intelligence artificielle (IA) était largement absent des discussions, une omission notable compte tenu que le G7 a précédemment été à l’avant-garde des directives volontaires convenues par les entreprises d’IA via le Processus d’IA de Hiroshima.

La considération relativement limitée de la sécurité de l’IA de pointe reflète un changement global plus large dans la manière dont la gouvernance de l’IA a été conçue. Alors que les deux dernières années ont marqué une ère où la sécurité de l’IA était au premier plan, aboutissant à la Déclaration de Bletchley Park du Royaume-Uni, à l’Acte sur l’IA de l’Union Européenne et à des engagements de sécurité de pointe volontaires convenus à Séoul, cette année a introduit un nouveau paradigme centré sur l’innovation en matière d’IA, la souveraineté et la compétition technologique.

Les Retraits des Initiatives de Gouvernance

Cette année seule, le projet de Directive sur la Responsabilité de l’IA de l’UE a été retiré, tandis que l’UE envisage de reporter l’application de certaines parties de son Acte sur l’IA. Les Instituts de Sécurité de l’IA (AISIs) du Royaume-Uni et des États-Unis ont reçu un nouveau nom : maintenant, ils sont appelés Institut de Sécurité de l’IA du Royaume-Uni et Centre pour les Normes et l’Innovation de l’IA des États-Unis, respectivement. Enfin, les États-Unis ont mis de côté leur cadre de gestion des risques de l’IA de l’ère Biden et ont abrogé le Cadre de Diffusion de l’IA, qui séparait le monde en trois niveaux de récepteurs de puces.

Les Initiatives du Sommet du G7

Le sommet du G7 a vu un livrable clé sur l’IA : une déclaration des dirigeants sur l’IA pour la prospérité, qui met principalement l’accent sur les opportunités économiques partagées, utilisant fréquemment les mots « croissance », « prospérité » et « compétitivité ». Les initiatives phares incluent un « Grand Défi GovAI » pour accélérer l’adoption de l’IA par les gouvernements et une feuille de route pour l’adoption de l’IA par les petites et moyennes entreprises (PME).

Un accord bilatéral entre le Canada et le Royaume-Uni comprend un partenariat entre le Royaume-Uni et ses homologues canadiens de l’AISI, ainsi qu’un protocole d’accord avec la société canadienne d’IA Cohere.

Une Réflexion sur la Vitesse du Changement

Peut-être que ce retrait plus large sur la gouvernance reflète la rapidité disruptive des capacités de l’IA. Les modèles publiés au cours de l’année dernière — GPT-4.5, Gemini 2.5, Claude Opus 4, et d’autres — possèdent des capacités de raisonnement qui auraient semblé incompréhensibles il y a seulement deux ans. L’évolutivité des calculs en temps d’inférence a permis aux systèmes d’IA de résoudre des problèmes complexes auparavant considérés comme nécessitant une intelligence humaine.

Alors que les systèmes d’IA deviennent de plus en plus capables, les pays se tournent de plus en plus vers la compétition pour tirer le meilleur parti de cette technologie disruptive.

Infrastructure et Défis Sécuritaires

Parallèlement, la construction d’infrastructures est tout aussi sismique. Des centres de données à l’échelle des gigawatts, tels que le projet de campus IA « Stargate » de 1 GW des Émirats Arabes Unis à Abu Dhabi, émergent sur plusieurs continents. Des recherches de la RAND Corporation indiquent que les centres de données d’IA à eux seuls pourraient nécessiter jusqu’à 68 GW d’énergie mondiale d’ici 2027.

Les pays qui manquent d’infrastructure avancée en IA risquent de devenir numériquement dépendants de ceux qui en disposent.

Vers une Politique Nationale de l’IA

Le défi des gouvernements de s’attaquer aux implications sécuritaires des systèmes d’IA avancés devient pressant. Les poids de modèle qui, s’ils sont volés, pourraient permettre à des adversaires de dérober des états et des entreprises des années de recherche et développement, ainsi que des centres de données massifs représentant des cibles pour des attaques cybernétiques et physiques.

Les scientifiques de premier plan avertissent également des problèmes de perte de contrôle qui pourraient survenir lorsque des systèmes d’IA avancés deviennent capables de s’éloigner des objectifs et des valeurs humaines.

Une Coopération Nécessaire

Les nations du G7, dominées par la chaîne de valeur de l’IA, sont bien placées pour relever ces défis par une action coordonnée. Contrairement à d’autres forums multilatéraux, le G7 combine les principaux développeurs et adoptants d’IA du monde avec des mécanismes de coopération sécuritaire déjà établis.

Le fruit à portée de main pour les nations du G7 est néanmoins substantiel : recherche conjointe sur l’évaluation des capacités et des modèles de menaces, processus de divulgation coordonnés pour les entreprises d’IA, partage d’intelligence sur les attaques habilitées par l’IA, et développement collaboratif de contrôles à l’exportation.

Ces initiatives ne nécessitent pas que les nations sacrifier leur avantage compétitif. Au contraire, elles l’améliorent en créant une adoption de l’IA plus sécurisée parmi les alliés.

Le sommet canadien du G7 a mis en lumière certaines lacunes dans la coordination de l’IA. À une époque où des systèmes d’IA hautement capables peuvent être formés dans un pays, déployés dans un autre et potentiellement causer des dommages dans un troisième, des approches purement nationales de la gouvernance de l’IA peuvent avoir du mal à traiter les risques transfrontaliers.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...