Google face à ses contradictions en matière d’IA responsable

A pair of handcuffs

Google publie un rapport sur l’IA responsable tout en supprimant son engagement anti-armes

Le rapport le plus notable sur l’IA responsable publié récemment par Google pourrait bien être ce qu’il ne mentionne pas. En effet, aucune référence n’est faite aux armes ou à la surveillance.

Ce mardi, Google a mis en ligne son sixième rapport annuel sur les progrès de l’IA responsable, qui détaille les méthodes de gouvernance, de cartographie, de mesure et de gestion des risques liés à l’IA. Le rapport fournit également des mises à jour sur la manière dont Google met en œuvre l’innovation responsable en matière d’IA.

Focus sur la sécurité et les contenus

Dans le rapport, Google souligne le grand nombre de publications de recherche sur la sécurité qu’il a produites en 2024 (plus de 300), les dépenses en éducation et formation à hauteur de 120 millions de dollars, ainsi que divers benchmarks de gouvernance. Son Cloud AI a reçu une note de préparation mature de la part de l’Institut national des normes et de la technologie (NIST) dans le cadre de son cadre de gestion des risques.

Le rapport se concentre en grande partie sur le red-teaming orienté vers la sécurité et le contenu, en approfondissant des projets tels que Gemini, AlphaFold, et Gemma, ainsi que sur les mesures de protection mises en place pour empêcher les modèles de générer ou de faire apparaître des contenus nuisibles.

Il met également en avant des outils de provenance comme SynthID, un outil de filtrage de contenu conçu pour mieux suivre la désinformation générée par l’IA, qui a été open-sourcé dans le cadre de cette narrative de responsabilité.

Évolution des principes de l’IA

Google a également mis à jour son cadre de sécurité Frontier, ajoutant de nouvelles recommandations de sécurité, des procédures d’atténuation des abus, et le risque d’alignement trompeur. Cela fait référence au risque d’un système autonome cherchant à saper le contrôle humain. Ce phénomène, connu sous le nom de faux alignement, a récemment été observé dans des modèles tels que OpenAI o1 et Claude 3 Opus.

En somme, le rapport reste centré sur la sécurité des utilisateurs, la protection des données et la sûreté, tout en demeurant dans un écosystème relativement fermé de l’IA pour les consommateurs. Bien que le rapport contienne des mentions éparses sur la protection contre les abus et les cyberattaques, ces sujets restent largement confinés à cet écosystème.

Cela est d’autant plus significatif que, parallèlement, la société a supprimé son engagement sur son site web de ne pas utiliser l’IA pour créer des armes ou surveiller les citoyens, comme l’a rapporté Bloomberg.

La question de l’IA responsable

La déconnexion entre le focus du rapport sur les consommateurs et la suppression de l’engagement concernant les armes et la surveillance soulève la question éternelle : qu’est-ce que l’IA responsable ?

Google a déclaré avoir renouvelé ses principes de l’IA autour de trois principes fondamentaux : innovation audacieuse, progrès collaboratif et développement et déploiement responsables. Ces principes mis à jour se réfèrent au déploiement responsable comme étant aligné avec les objectifs des utilisateurs, la responsabilité sociale, et les principes largement acceptés du droit international et des droits de l’homme, ce qui semble assez vague pour permettre une réévaluation des cas d’utilisation des armes sans sembler contredire ses propres directives.

Google a conclu en indiquant qu’il continuerait à se concentrer sur la recherche et les applications de l’IA qui sont en accord avec sa mission, son axe scientifique, et ses domaines d’expertise, en évaluant toujours un travail spécifique en considérant si les avantages l’emportent largement sur les risques potentiels.

Ce changement de cap s’ajoute à la mosaïque grandissante des géants de la technologie qui modifient leur attitude envers les applications militaires de l’IA. La semaine dernière, OpenAI a renforcé sa présence dans l’infrastructure de sécurité nationale par un partenariat avec des laboratoires nationaux américains, après avoir collaboré avec le contractant de défense Anduril l’année dernière.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...