G7 : Un manqué sur la gouvernance mondiale de l’IA

A magnifying glass over a network of AI algorithms

Le Sommet du G7 et l’Opportunité Manquée pour la Gouvernance Mondiale de l’IA

Alors que les dirigeants du G7 se sont réunis en Alberta, au Canada, la semaine dernière, l’ordre du jour a englobé des développements géopolitiques pressants au Moyen-Orient, en Ukraine, ainsi que des enjeux liés au commerce et à la sécurité énergétique. Cependant, le sujet de la gouvernance des modèles et systèmes d’intelligence artificielle (IA) était largement absent des discussions, une omission notable compte tenu que le G7 a précédemment été à l’avant-garde des directives volontaires convenues par les entreprises d’IA via le Processus d’IA de Hiroshima.

La considération relativement limitée de la sécurité de l’IA de pointe reflète un changement global plus large dans la manière dont la gouvernance de l’IA a été conçue. Alors que les deux dernières années ont marqué une ère où la sécurité de l’IA était au premier plan, aboutissant à la Déclaration de Bletchley Park du Royaume-Uni, à l’Acte sur l’IA de l’Union Européenne et à des engagements de sécurité de pointe volontaires convenus à Séoul, cette année a introduit un nouveau paradigme centré sur l’innovation en matière d’IA, la souveraineté et la compétition technologique.

Les Retraits des Initiatives de Gouvernance

Cette année seule, le projet de Directive sur la Responsabilité de l’IA de l’UE a été retiré, tandis que l’UE envisage de reporter l’application de certaines parties de son Acte sur l’IA. Les Instituts de Sécurité de l’IA (AISIs) du Royaume-Uni et des États-Unis ont reçu un nouveau nom : maintenant, ils sont appelés Institut de Sécurité de l’IA du Royaume-Uni et Centre pour les Normes et l’Innovation de l’IA des États-Unis, respectivement. Enfin, les États-Unis ont mis de côté leur cadre de gestion des risques de l’IA de l’ère Biden et ont abrogé le Cadre de Diffusion de l’IA, qui séparait le monde en trois niveaux de récepteurs de puces.

Les Initiatives du Sommet du G7

Le sommet du G7 a vu un livrable clé sur l’IA : une déclaration des dirigeants sur l’IA pour la prospérité, qui met principalement l’accent sur les opportunités économiques partagées, utilisant fréquemment les mots « croissance », « prospérité » et « compétitivité ». Les initiatives phares incluent un « Grand Défi GovAI » pour accélérer l’adoption de l’IA par les gouvernements et une feuille de route pour l’adoption de l’IA par les petites et moyennes entreprises (PME).

Un accord bilatéral entre le Canada et le Royaume-Uni comprend un partenariat entre le Royaume-Uni et ses homologues canadiens de l’AISI, ainsi qu’un protocole d’accord avec la société canadienne d’IA Cohere.

Une Réflexion sur la Vitesse du Changement

Peut-être que ce retrait plus large sur la gouvernance reflète la rapidité disruptive des capacités de l’IA. Les modèles publiés au cours de l’année dernière — GPT-4.5, Gemini 2.5, Claude Opus 4, et d’autres — possèdent des capacités de raisonnement qui auraient semblé incompréhensibles il y a seulement deux ans. L’évolutivité des calculs en temps d’inférence a permis aux systèmes d’IA de résoudre des problèmes complexes auparavant considérés comme nécessitant une intelligence humaine.

Alors que les systèmes d’IA deviennent de plus en plus capables, les pays se tournent de plus en plus vers la compétition pour tirer le meilleur parti de cette technologie disruptive.

Infrastructure et Défis Sécuritaires

Parallèlement, la construction d’infrastructures est tout aussi sismique. Des centres de données à l’échelle des gigawatts, tels que le projet de campus IA « Stargate » de 1 GW des Émirats Arabes Unis à Abu Dhabi, émergent sur plusieurs continents. Des recherches de la RAND Corporation indiquent que les centres de données d’IA à eux seuls pourraient nécessiter jusqu’à 68 GW d’énergie mondiale d’ici 2027.

Les pays qui manquent d’infrastructure avancée en IA risquent de devenir numériquement dépendants de ceux qui en disposent.

Vers une Politique Nationale de l’IA

Le défi des gouvernements de s’attaquer aux implications sécuritaires des systèmes d’IA avancés devient pressant. Les poids de modèle qui, s’ils sont volés, pourraient permettre à des adversaires de dérober des états et des entreprises des années de recherche et développement, ainsi que des centres de données massifs représentant des cibles pour des attaques cybernétiques et physiques.

Les scientifiques de premier plan avertissent également des problèmes de perte de contrôle qui pourraient survenir lorsque des systèmes d’IA avancés deviennent capables de s’éloigner des objectifs et des valeurs humaines.

Une Coopération Nécessaire

Les nations du G7, dominées par la chaîne de valeur de l’IA, sont bien placées pour relever ces défis par une action coordonnée. Contrairement à d’autres forums multilatéraux, le G7 combine les principaux développeurs et adoptants d’IA du monde avec des mécanismes de coopération sécuritaire déjà établis.

Le fruit à portée de main pour les nations du G7 est néanmoins substantiel : recherche conjointe sur l’évaluation des capacités et des modèles de menaces, processus de divulgation coordonnés pour les entreprises d’IA, partage d’intelligence sur les attaques habilitées par l’IA, et développement collaboratif de contrôles à l’exportation.

Ces initiatives ne nécessitent pas que les nations sacrifier leur avantage compétitif. Au contraire, elles l’améliorent en créant une adoption de l’IA plus sécurisée parmi les alliés.

Le sommet canadien du G7 a mis en lumière certaines lacunes dans la coordination de l’IA. À une époque où des systèmes d’IA hautement capables peuvent être formés dans un pays, déployés dans un autre et potentiellement causer des dommages dans un troisième, des approches purement nationales de la gouvernance de l’IA peuvent avoir du mal à traiter les risques transfrontaliers.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...