Google face à ses contradictions en matière d’IA responsable

A pair of handcuffs

Google publie un rapport sur l’IA responsable tout en supprimant son engagement anti-armes

Le rapport le plus notable sur l’IA responsable publié récemment par Google pourrait bien être ce qu’il ne mentionne pas. En effet, aucune référence n’est faite aux armes ou à la surveillance.

Ce mardi, Google a mis en ligne son sixième rapport annuel sur les progrès de l’IA responsable, qui détaille les méthodes de gouvernance, de cartographie, de mesure et de gestion des risques liés à l’IA. Le rapport fournit également des mises à jour sur la manière dont Google met en œuvre l’innovation responsable en matière d’IA.

Focus sur la sécurité et les contenus

Dans le rapport, Google souligne le grand nombre de publications de recherche sur la sécurité qu’il a produites en 2024 (plus de 300), les dépenses en éducation et formation à hauteur de 120 millions de dollars, ainsi que divers benchmarks de gouvernance. Son Cloud AI a reçu une note de préparation mature de la part de l’Institut national des normes et de la technologie (NIST) dans le cadre de son cadre de gestion des risques.

Le rapport se concentre en grande partie sur le red-teaming orienté vers la sécurité et le contenu, en approfondissant des projets tels que Gemini, AlphaFold, et Gemma, ainsi que sur les mesures de protection mises en place pour empêcher les modèles de générer ou de faire apparaître des contenus nuisibles.

Il met également en avant des outils de provenance comme SynthID, un outil de filtrage de contenu conçu pour mieux suivre la désinformation générée par l’IA, qui a été open-sourcé dans le cadre de cette narrative de responsabilité.

Évolution des principes de l’IA

Google a également mis à jour son cadre de sécurité Frontier, ajoutant de nouvelles recommandations de sécurité, des procédures d’atténuation des abus, et le risque d’alignement trompeur. Cela fait référence au risque d’un système autonome cherchant à saper le contrôle humain. Ce phénomène, connu sous le nom de faux alignement, a récemment été observé dans des modèles tels que OpenAI o1 et Claude 3 Opus.

En somme, le rapport reste centré sur la sécurité des utilisateurs, la protection des données et la sûreté, tout en demeurant dans un écosystème relativement fermé de l’IA pour les consommateurs. Bien que le rapport contienne des mentions éparses sur la protection contre les abus et les cyberattaques, ces sujets restent largement confinés à cet écosystème.

Cela est d’autant plus significatif que, parallèlement, la société a supprimé son engagement sur son site web de ne pas utiliser l’IA pour créer des armes ou surveiller les citoyens, comme l’a rapporté Bloomberg.

La question de l’IA responsable

La déconnexion entre le focus du rapport sur les consommateurs et la suppression de l’engagement concernant les armes et la surveillance soulève la question éternelle : qu’est-ce que l’IA responsable ?

Google a déclaré avoir renouvelé ses principes de l’IA autour de trois principes fondamentaux : innovation audacieuse, progrès collaboratif et développement et déploiement responsables. Ces principes mis à jour se réfèrent au déploiement responsable comme étant aligné avec les objectifs des utilisateurs, la responsabilité sociale, et les principes largement acceptés du droit international et des droits de l’homme, ce qui semble assez vague pour permettre une réévaluation des cas d’utilisation des armes sans sembler contredire ses propres directives.

Google a conclu en indiquant qu’il continuerait à se concentrer sur la recherche et les applications de l’IA qui sont en accord avec sa mission, son axe scientifique, et ses domaines d’expertise, en évaluant toujours un travail spécifique en considérant si les avantages l’emportent largement sur les risques potentiels.

Ce changement de cap s’ajoute à la mosaïque grandissante des géants de la technologie qui modifient leur attitude envers les applications militaires de l’IA. La semaine dernière, OpenAI a renforcé sa présence dans l’infrastructure de sécurité nationale par un partenariat avec des laboratoires nationaux américains, après avoir collaboré avec le contractant de défense Anduril l’année dernière.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...