Google face à ses contradictions en matière d’IA responsable

A pair of handcuffs

Google publie un rapport sur l’IA responsable tout en supprimant son engagement anti-armes

Le rapport le plus notable sur l’IA responsable publié récemment par Google pourrait bien être ce qu’il ne mentionne pas. En effet, aucune référence n’est faite aux armes ou à la surveillance.

Ce mardi, Google a mis en ligne son sixième rapport annuel sur les progrès de l’IA responsable, qui détaille les méthodes de gouvernance, de cartographie, de mesure et de gestion des risques liés à l’IA. Le rapport fournit également des mises à jour sur la manière dont Google met en œuvre l’innovation responsable en matière d’IA.

Focus sur la sécurité et les contenus

Dans le rapport, Google souligne le grand nombre de publications de recherche sur la sécurité qu’il a produites en 2024 (plus de 300), les dépenses en éducation et formation à hauteur de 120 millions de dollars, ainsi que divers benchmarks de gouvernance. Son Cloud AI a reçu une note de préparation mature de la part de l’Institut national des normes et de la technologie (NIST) dans le cadre de son cadre de gestion des risques.

Le rapport se concentre en grande partie sur le red-teaming orienté vers la sécurité et le contenu, en approfondissant des projets tels que Gemini, AlphaFold, et Gemma, ainsi que sur les mesures de protection mises en place pour empêcher les modèles de générer ou de faire apparaître des contenus nuisibles.

Il met également en avant des outils de provenance comme SynthID, un outil de filtrage de contenu conçu pour mieux suivre la désinformation générée par l’IA, qui a été open-sourcé dans le cadre de cette narrative de responsabilité.

Évolution des principes de l’IA

Google a également mis à jour son cadre de sécurité Frontier, ajoutant de nouvelles recommandations de sécurité, des procédures d’atténuation des abus, et le risque d’alignement trompeur. Cela fait référence au risque d’un système autonome cherchant à saper le contrôle humain. Ce phénomène, connu sous le nom de faux alignement, a récemment été observé dans des modèles tels que OpenAI o1 et Claude 3 Opus.

En somme, le rapport reste centré sur la sécurité des utilisateurs, la protection des données et la sûreté, tout en demeurant dans un écosystème relativement fermé de l’IA pour les consommateurs. Bien que le rapport contienne des mentions éparses sur la protection contre les abus et les cyberattaques, ces sujets restent largement confinés à cet écosystème.

Cela est d’autant plus significatif que, parallèlement, la société a supprimé son engagement sur son site web de ne pas utiliser l’IA pour créer des armes ou surveiller les citoyens, comme l’a rapporté Bloomberg.

La question de l’IA responsable

La déconnexion entre le focus du rapport sur les consommateurs et la suppression de l’engagement concernant les armes et la surveillance soulève la question éternelle : qu’est-ce que l’IA responsable ?

Google a déclaré avoir renouvelé ses principes de l’IA autour de trois principes fondamentaux : innovation audacieuse, progrès collaboratif et développement et déploiement responsables. Ces principes mis à jour se réfèrent au déploiement responsable comme étant aligné avec les objectifs des utilisateurs, la responsabilité sociale, et les principes largement acceptés du droit international et des droits de l’homme, ce qui semble assez vague pour permettre une réévaluation des cas d’utilisation des armes sans sembler contredire ses propres directives.

Google a conclu en indiquant qu’il continuerait à se concentrer sur la recherche et les applications de l’IA qui sont en accord avec sa mission, son axe scientifique, et ses domaines d’expertise, en évaluant toujours un travail spécifique en considérant si les avantages l’emportent largement sur les risques potentiels.

Ce changement de cap s’ajoute à la mosaïque grandissante des géants de la technologie qui modifient leur attitude envers les applications militaires de l’IA. La semaine dernière, OpenAI a renforcé sa présence dans l’infrastructure de sécurité nationale par un partenariat avec des laboratoires nationaux américains, après avoir collaboré avec le contractant de défense Anduril l’année dernière.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...