Google face à ses contradictions en matière d’IA responsable

A pair of handcuffs

Google publie un rapport sur l’IA responsable tout en supprimant son engagement anti-armes

Le rapport le plus notable sur l’IA responsable publié récemment par Google pourrait bien être ce qu’il ne mentionne pas. En effet, aucune référence n’est faite aux armes ou à la surveillance.

Ce mardi, Google a mis en ligne son sixième rapport annuel sur les progrès de l’IA responsable, qui détaille les méthodes de gouvernance, de cartographie, de mesure et de gestion des risques liés à l’IA. Le rapport fournit également des mises à jour sur la manière dont Google met en œuvre l’innovation responsable en matière d’IA.

Focus sur la sécurité et les contenus

Dans le rapport, Google souligne le grand nombre de publications de recherche sur la sécurité qu’il a produites en 2024 (plus de 300), les dépenses en éducation et formation à hauteur de 120 millions de dollars, ainsi que divers benchmarks de gouvernance. Son Cloud AI a reçu une note de préparation mature de la part de l’Institut national des normes et de la technologie (NIST) dans le cadre de son cadre de gestion des risques.

Le rapport se concentre en grande partie sur le red-teaming orienté vers la sécurité et le contenu, en approfondissant des projets tels que Gemini, AlphaFold, et Gemma, ainsi que sur les mesures de protection mises en place pour empêcher les modèles de générer ou de faire apparaître des contenus nuisibles.

Il met également en avant des outils de provenance comme SynthID, un outil de filtrage de contenu conçu pour mieux suivre la désinformation générée par l’IA, qui a été open-sourcé dans le cadre de cette narrative de responsabilité.

Évolution des principes de l’IA

Google a également mis à jour son cadre de sécurité Frontier, ajoutant de nouvelles recommandations de sécurité, des procédures d’atténuation des abus, et le risque d’alignement trompeur. Cela fait référence au risque d’un système autonome cherchant à saper le contrôle humain. Ce phénomène, connu sous le nom de faux alignement, a récemment été observé dans des modèles tels que OpenAI o1 et Claude 3 Opus.

En somme, le rapport reste centré sur la sécurité des utilisateurs, la protection des données et la sûreté, tout en demeurant dans un écosystème relativement fermé de l’IA pour les consommateurs. Bien que le rapport contienne des mentions éparses sur la protection contre les abus et les cyberattaques, ces sujets restent largement confinés à cet écosystème.

Cela est d’autant plus significatif que, parallèlement, la société a supprimé son engagement sur son site web de ne pas utiliser l’IA pour créer des armes ou surveiller les citoyens, comme l’a rapporté Bloomberg.

La question de l’IA responsable

La déconnexion entre le focus du rapport sur les consommateurs et la suppression de l’engagement concernant les armes et la surveillance soulève la question éternelle : qu’est-ce que l’IA responsable ?

Google a déclaré avoir renouvelé ses principes de l’IA autour de trois principes fondamentaux : innovation audacieuse, progrès collaboratif et développement et déploiement responsables. Ces principes mis à jour se réfèrent au déploiement responsable comme étant aligné avec les objectifs des utilisateurs, la responsabilité sociale, et les principes largement acceptés du droit international et des droits de l’homme, ce qui semble assez vague pour permettre une réévaluation des cas d’utilisation des armes sans sembler contredire ses propres directives.

Google a conclu en indiquant qu’il continuerait à se concentrer sur la recherche et les applications de l’IA qui sont en accord avec sa mission, son axe scientifique, et ses domaines d’expertise, en évaluant toujours un travail spécifique en considérant si les avantages l’emportent largement sur les risques potentiels.

Ce changement de cap s’ajoute à la mosaïque grandissante des géants de la technologie qui modifient leur attitude envers les applications militaires de l’IA. La semaine dernière, OpenAI a renforcé sa présence dans l’infrastructure de sécurité nationale par un partenariat avec des laboratoires nationaux américains, après avoir collaboré avec le contractant de défense Anduril l’année dernière.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...