Google sous le feu des critiques pour des violations éthiques en IA et son aide à l’armée israélienne

A shattered search bar mirror reflecting a digital battlefield

Google sous le feu des critiques concernant l’éthique de l’IA et une aide présumée à l’armée israélienne

Google a violé ses propres règles d’éthique de l’intelligence artificielle en 2024 en aidant un contractant militaire israélien à analyser des séquences vidéo de drones, selon une plainte de lanceur d’alerte examinée par un média. Cette plainte soulève de nouvelles questions sur la manière dont les grandes entreprises technologiques appliquent leurs politiques d’IA pendant les conflits armés, tout en mettant en lumière un contrôle croissant de l’utilisation de l’IA dans les travaux militaires et de surveillance.

Contexte de la plainte

Un ancien employé de Google a déposé la plainte auprès de la Commission des valeurs mobilières des États-Unis, alléguant que Google avait violé ses principes d’IA publiquement déclarés. À l’époque, ces principes interdisaient l’utilisation de l’IA pour des armes ou des surveillances violant les normes internationales.

Selon la plainte, la division de cloud computing de Google a aidé un client lié à l’armée israélienne. La demande aurait été formulée à partir d’une adresse email liée aux Forces de défense israéliennes. Le nom du client correspondait à un employé d’une entreprise technologique israélienne. La plainte indique que l’entreprise travaille comme contractant pour l’armée israélienne.

Problèmes techniques rencontrés

Le client a contacté le support Google concernant un problème technique rencontré lors de l’utilisation du système d’IA Gemini de Google pour analyser des séquences aériennes de drones. Le problème a été signalé comme causant des omissions d’objets dans les flux vidéo, y compris des drones et des soldats. Le personnel du support Google a répondu avec des suggestions et a également effectué des tests internes pour examiner le problème.

Après plusieurs messages, le problème s’est résolu de lui-même. Un autre employé de Google aurait rejoint la chaîne d’emails, soutenant le compte Google Cloud de l’armée israélienne. La plainte affirme que les séquences vidéo étaient liées aux opérations militaires israéliennes à Gaza pendant la guerre entre Israël et le Hamas, bien que le document ne fournisse pas de preuves directes pour soutenir cette affirmation.

Allégations de double standard

La plainte soutient que les actions de Google contredisaient ses politiques éthiques en matière d’IA et que la société avait induit en erreur les régulateurs et les investisseurs. Le lanceur d’alerte a affirmé que Google applique son processus de révision de l’IA de manière inégale, déclarant que l’entreprise impose généralement ses règles d’éthique de manière stricte. Cependant, il a noté que l’approche semblait différente lorsque l’armée israélienne et Gaza étaient impliquées.

Google a nié les allégations et rejeté l’idée d’un double standard, affirmant que la demande de support n’avait pas violé ses politiques d’IA. Un porte-parole a précisé que le compte ayant déposé le ticket dépensait moins de quelques centaines de dollars par mois en services IA, ce qui rendait une utilisation significative de l’IA impossible.

Implications et préoccupations éthiques

Google a affirmé que son équipe de support avait seulement fourni des conseils généraux et n’avait pas assisté à des travaux liés à des armes ou au renseignement. Cependant, les critiques soutiennent que même un soutien limité peut soulever des préoccupations éthiques, arguant que l’aide à la résolution de problèmes d’IA utilisée sur des séquences de drones pourrait toujours soutenir des opérations militaires.

La plainte intervient alors que Google a modifié sa position publique sur l’utilisation de l’IA. En février 2025, l’entreprise a mis à jour sa politique d’IA, supprimant un engagement à éviter l’utilisation pour la surveillance et les armes, invoquant la nécessité de flexibilité pour soutenir les gouvernements démocratiquement élus.

Les plaintes auprès de la SEC ne déclenchent pas automatiquement des enquêtes, et toute personne peut en déposer. Ce sont les régulateurs qui décident de poursuivre ou non des actions supplémentaires.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...