Google sous le feu des critiques concernant l’éthique de l’IA et une aide présumée à l’armée israélienne
Google a violé ses propres règles d’éthique de l’intelligence artificielle en 2024 en aidant un contractant militaire israélien à analyser des séquences vidéo de drones, selon une plainte de lanceur d’alerte examinée par un média. Cette plainte soulève de nouvelles questions sur la manière dont les grandes entreprises technologiques appliquent leurs politiques d’IA pendant les conflits armés, tout en mettant en lumière un contrôle croissant de l’utilisation de l’IA dans les travaux militaires et de surveillance.
Contexte de la plainte
Un ancien employé de Google a déposé la plainte auprès de la Commission des valeurs mobilières des États-Unis, alléguant que Google avait violé ses principes d’IA publiquement déclarés. À l’époque, ces principes interdisaient l’utilisation de l’IA pour des armes ou des surveillances violant les normes internationales.
Selon la plainte, la division de cloud computing de Google a aidé un client lié à l’armée israélienne. La demande aurait été formulée à partir d’une adresse email liée aux Forces de défense israéliennes. Le nom du client correspondait à un employé d’une entreprise technologique israélienne. La plainte indique que l’entreprise travaille comme contractant pour l’armée israélienne.
Problèmes techniques rencontrés
Le client a contacté le support Google concernant un problème technique rencontré lors de l’utilisation du système d’IA Gemini de Google pour analyser des séquences aériennes de drones. Le problème a été signalé comme causant des omissions d’objets dans les flux vidéo, y compris des drones et des soldats. Le personnel du support Google a répondu avec des suggestions et a également effectué des tests internes pour examiner le problème.
Après plusieurs messages, le problème s’est résolu de lui-même. Un autre employé de Google aurait rejoint la chaîne d’emails, soutenant le compte Google Cloud de l’armée israélienne. La plainte affirme que les séquences vidéo étaient liées aux opérations militaires israéliennes à Gaza pendant la guerre entre Israël et le Hamas, bien que le document ne fournisse pas de preuves directes pour soutenir cette affirmation.
Allégations de double standard
La plainte soutient que les actions de Google contredisaient ses politiques éthiques en matière d’IA et que la société avait induit en erreur les régulateurs et les investisseurs. Le lanceur d’alerte a affirmé que Google applique son processus de révision de l’IA de manière inégale, déclarant que l’entreprise impose généralement ses règles d’éthique de manière stricte. Cependant, il a noté que l’approche semblait différente lorsque l’armée israélienne et Gaza étaient impliquées.
Google a nié les allégations et rejeté l’idée d’un double standard, affirmant que la demande de support n’avait pas violé ses politiques d’IA. Un porte-parole a précisé que le compte ayant déposé le ticket dépensait moins de quelques centaines de dollars par mois en services IA, ce qui rendait une utilisation significative de l’IA impossible.
Implications et préoccupations éthiques
Google a affirmé que son équipe de support avait seulement fourni des conseils généraux et n’avait pas assisté à des travaux liés à des armes ou au renseignement. Cependant, les critiques soutiennent que même un soutien limité peut soulever des préoccupations éthiques, arguant que l’aide à la résolution de problèmes d’IA utilisée sur des séquences de drones pourrait toujours soutenir des opérations militaires.
La plainte intervient alors que Google a modifié sa position publique sur l’utilisation de l’IA. En février 2025, l’entreprise a mis à jour sa politique d’IA, supprimant un engagement à éviter l’utilisation pour la surveillance et les armes, invoquant la nécessité de flexibilité pour soutenir les gouvernements démocratiquement élus.
Les plaintes auprès de la SEC ne déclenchent pas automatiquement des enquêtes, et toute personne peut en déposer. Ce sont les régulateurs qui décident de poursuivre ou non des actions supplémentaires.