G7 : Un manqué sur la gouvernance mondiale de l’IA

A magnifying glass over a network of AI algorithms

Le Sommet du G7 et l’Opportunité Manquée pour la Gouvernance Mondiale de l’IA

Alors que les dirigeants du G7 se sont réunis en Alberta, au Canada, la semaine dernière, l’ordre du jour a englobé des développements géopolitiques pressants au Moyen-Orient, en Ukraine, ainsi que des enjeux liés au commerce et à la sécurité énergétique. Cependant, le sujet de la gouvernance des modèles et systèmes d’intelligence artificielle (IA) était largement absent des discussions, une omission notable compte tenu que le G7 a précédemment été à l’avant-garde des directives volontaires convenues par les entreprises d’IA via le Processus d’IA de Hiroshima.

La considération relativement limitée de la sécurité de l’IA de pointe reflète un changement global plus large dans la manière dont la gouvernance de l’IA a été conçue. Alors que les deux dernières années ont marqué une ère où la sécurité de l’IA était au premier plan, aboutissant à la Déclaration de Bletchley Park du Royaume-Uni, à l’Acte sur l’IA de l’Union Européenne et à des engagements de sécurité de pointe volontaires convenus à Séoul, cette année a introduit un nouveau paradigme centré sur l’innovation en matière d’IA, la souveraineté et la compétition technologique.

Les Retraits des Initiatives de Gouvernance

Cette année seule, le projet de Directive sur la Responsabilité de l’IA de l’UE a été retiré, tandis que l’UE envisage de reporter l’application de certaines parties de son Acte sur l’IA. Les Instituts de Sécurité de l’IA (AISIs) du Royaume-Uni et des États-Unis ont reçu un nouveau nom : maintenant, ils sont appelés Institut de Sécurité de l’IA du Royaume-Uni et Centre pour les Normes et l’Innovation de l’IA des États-Unis, respectivement. Enfin, les États-Unis ont mis de côté leur cadre de gestion des risques de l’IA de l’ère Biden et ont abrogé le Cadre de Diffusion de l’IA, qui séparait le monde en trois niveaux de récepteurs de puces.

Les Initiatives du Sommet du G7

Le sommet du G7 a vu un livrable clé sur l’IA : une déclaration des dirigeants sur l’IA pour la prospérité, qui met principalement l’accent sur les opportunités économiques partagées, utilisant fréquemment les mots « croissance », « prospérité » et « compétitivité ». Les initiatives phares incluent un « Grand Défi GovAI » pour accélérer l’adoption de l’IA par les gouvernements et une feuille de route pour l’adoption de l’IA par les petites et moyennes entreprises (PME).

Un accord bilatéral entre le Canada et le Royaume-Uni comprend un partenariat entre le Royaume-Uni et ses homologues canadiens de l’AISI, ainsi qu’un protocole d’accord avec la société canadienne d’IA Cohere.

Une Réflexion sur la Vitesse du Changement

Peut-être que ce retrait plus large sur la gouvernance reflète la rapidité disruptive des capacités de l’IA. Les modèles publiés au cours de l’année dernière — GPT-4.5, Gemini 2.5, Claude Opus 4, et d’autres — possèdent des capacités de raisonnement qui auraient semblé incompréhensibles il y a seulement deux ans. L’évolutivité des calculs en temps d’inférence a permis aux systèmes d’IA de résoudre des problèmes complexes auparavant considérés comme nécessitant une intelligence humaine.

Alors que les systèmes d’IA deviennent de plus en plus capables, les pays se tournent de plus en plus vers la compétition pour tirer le meilleur parti de cette technologie disruptive.

Infrastructure et Défis Sécuritaires

Parallèlement, la construction d’infrastructures est tout aussi sismique. Des centres de données à l’échelle des gigawatts, tels que le projet de campus IA « Stargate » de 1 GW des Émirats Arabes Unis à Abu Dhabi, émergent sur plusieurs continents. Des recherches de la RAND Corporation indiquent que les centres de données d’IA à eux seuls pourraient nécessiter jusqu’à 68 GW d’énergie mondiale d’ici 2027.

Les pays qui manquent d’infrastructure avancée en IA risquent de devenir numériquement dépendants de ceux qui en disposent.

Vers une Politique Nationale de l’IA

Le défi des gouvernements de s’attaquer aux implications sécuritaires des systèmes d’IA avancés devient pressant. Les poids de modèle qui, s’ils sont volés, pourraient permettre à des adversaires de dérober des états et des entreprises des années de recherche et développement, ainsi que des centres de données massifs représentant des cibles pour des attaques cybernétiques et physiques.

Les scientifiques de premier plan avertissent également des problèmes de perte de contrôle qui pourraient survenir lorsque des systèmes d’IA avancés deviennent capables de s’éloigner des objectifs et des valeurs humaines.

Une Coopération Nécessaire

Les nations du G7, dominées par la chaîne de valeur de l’IA, sont bien placées pour relever ces défis par une action coordonnée. Contrairement à d’autres forums multilatéraux, le G7 combine les principaux développeurs et adoptants d’IA du monde avec des mécanismes de coopération sécuritaire déjà établis.

Le fruit à portée de main pour les nations du G7 est néanmoins substantiel : recherche conjointe sur l’évaluation des capacités et des modèles de menaces, processus de divulgation coordonnés pour les entreprises d’IA, partage d’intelligence sur les attaques habilitées par l’IA, et développement collaboratif de contrôles à l’exportation.

Ces initiatives ne nécessitent pas que les nations sacrifier leur avantage compétitif. Au contraire, elles l’améliorent en créant une adoption de l’IA plus sécurisée parmi les alliés.

Le sommet canadien du G7 a mis en lumière certaines lacunes dans la coordination de l’IA. À une époque où des systèmes d’IA hautement capables peuvent être formés dans un pays, déployés dans un autre et potentiellement causer des dommages dans un troisième, des approches purement nationales de la gouvernance de l’IA peuvent avoir du mal à traiter les risques transfrontaliers.

Articles

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...

Sécuriser l’IA : La transformation de la protection des données à Singapour

Singapour répond de manière proactive aux défis en constante évolution posés par l'utilisation des données à l'ère de l'intelligence artificielle (IA), a déclaré la ministre des Communications et de...

Surveillance AI en Asie-Pacifique : un vide de gouvernance inquiétant

L'Acte sur l'intelligence artificielle (IA) de l'UE introduit un cadre de régulation basé sur les risques pour les systèmes d'IA, imposant des limites sur la surveillance biométrique. Pendant ce...

L’IA au service de solutions fiscales intelligentes

L'intelligence artificielle (IA) transforme le paysage de la conformité fiscale en offrant des solutions innovantes qui rationalisent les processus et améliorent l'exactitude. En automatisant la...

Opportunités cachées dans la conformité proactive aux réglementations de l’IA en Europe

L'Acte sur l'Intelligence Artificielle de l'Union Européenne, qui doit transformer la gouvernance mondiale de l'IA, fait face à des délais critiques alors que les délais de conformité approchent. Cet...