Accusations de violation des principes éthiques de l’IA chez Google

A shattered glass prism reflecting a distorted Google logo and a blurred Israeli Defense Forces emblem

Un ancien employé accuse une entreprise de technologie d’avoir aidé un contractant militaire

Un ancien employé a accusé une entreprise de technologie de violer ses politiques éthiques en matière d’intelligence artificielle (IA) en aidant un contractant militaire israélien à analyser des images de drones en 2024, selon une plainte de lanceur d’alerte. Cette plainte a été déposée auprès de l’organisme de régulation des valeurs mobilières des États-Unis.

Les allégations de violation des principes de l’IA

La plainte allègue que l’entreprise a enfreint ses propres « principes de l’IA », qui stipulaient qu’elle ne devait pas utiliser la technologie de l’IA pour mener des surveillances violant les normes acceptées internationalement ou en relation avec des armes. Selon les documents de la plainte, une demande de support client a été envoyée depuis une adresse e-mail attribuée à un contractant militaire israélien.

Cette demande aurait été reçue par la division cloud de l’entreprise, et le nom du client associé à cette demande correspondait à un employé d’une entreprise technologique israélienne. La plainte alléguait également que cette entreprise était un contractant de l’armée israélienne.

Détails de la demande et réponse du support

Les documents internes inclus dans la plainte décrivaient que le client avait demandé de l’aide après avoir remarqué un bug lors de l’utilisation d’un service d’IA, ce qui avait provoqué des échecs occasionnels à identifier des drones et d’autres objets. Le personnel de support client aurait répondu avec des suggestions et effectué des tests internes en rapport avec la demande. Après plusieurs échanges de messages, le problème s’est résolu de lui-même.

Réactions et implications

Un autre employé de l’entreprise aurait été copié dans la demande de support, et il a été allégué qu’il travaillait sur le compte cloud de l’armée israélienne. Les allégations indiquaient que les images aéroportées étaient liées aux opérations israéliennes, sans toutefois fournir de preuves spécifiques.

Le lanceur d’alerte a affirmé que la réponse du service client contredisait les politiques énoncées par l’entreprise et a accusé celle-ci de tromper les régulateurs et les investisseurs.

En réponse, l’entreprise a déclaré que tout travail réalisé avec le gouvernement israélien n’était pas dirigé vers des charges sensibles ou militaires. Un porte-parole a contesté l’allégation de double standard, affirmant que l’utilisation des services par le client était trop minime pour être significative.

Conclusion

Cette situation soulève des questions importantes concernant l’éthique de l’utilisation de l’IA dans des contextes sensibles, notamment en ce qui concerne les relations avec les gouvernements et les implications pour la sécurité. Le débat sur l’éthique de l’IA continue d’évoluer, avec des mises à jour récentes sur les politiques de l’entreprise concernant l’utilisation de sa technologie pour la surveillance.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...