Un ancien employé accuse une entreprise de technologie d’avoir aidé un contractant militaire
Un ancien employé a accusé une entreprise de technologie de violer ses politiques éthiques en matière d’intelligence artificielle (IA) en aidant un contractant militaire israélien à analyser des images de drones en 2024, selon une plainte de lanceur d’alerte. Cette plainte a été déposée auprès de l’organisme de régulation des valeurs mobilières des États-Unis.
Les allégations de violation des principes de l’IA
La plainte allègue que l’entreprise a enfreint ses propres « principes de l’IA », qui stipulaient qu’elle ne devait pas utiliser la technologie de l’IA pour mener des surveillances violant les normes acceptées internationalement ou en relation avec des armes. Selon les documents de la plainte, une demande de support client a été envoyée depuis une adresse e-mail attribuée à un contractant militaire israélien.
Cette demande aurait été reçue par la division cloud de l’entreprise, et le nom du client associé à cette demande correspondait à un employé d’une entreprise technologique israélienne. La plainte alléguait également que cette entreprise était un contractant de l’armée israélienne.
Détails de la demande et réponse du support
Les documents internes inclus dans la plainte décrivaient que le client avait demandé de l’aide après avoir remarqué un bug lors de l’utilisation d’un service d’IA, ce qui avait provoqué des échecs occasionnels à identifier des drones et d’autres objets. Le personnel de support client aurait répondu avec des suggestions et effectué des tests internes en rapport avec la demande. Après plusieurs échanges de messages, le problème s’est résolu de lui-même.
Réactions et implications
Un autre employé de l’entreprise aurait été copié dans la demande de support, et il a été allégué qu’il travaillait sur le compte cloud de l’armée israélienne. Les allégations indiquaient que les images aéroportées étaient liées aux opérations israéliennes, sans toutefois fournir de preuves spécifiques.
Le lanceur d’alerte a affirmé que la réponse du service client contredisait les politiques énoncées par l’entreprise et a accusé celle-ci de tromper les régulateurs et les investisseurs.
En réponse, l’entreprise a déclaré que tout travail réalisé avec le gouvernement israélien n’était pas dirigé vers des charges sensibles ou militaires. Un porte-parole a contesté l’allégation de double standard, affirmant que l’utilisation des services par le client était trop minime pour être significative.
Conclusion
Cette situation soulève des questions importantes concernant l’éthique de l’utilisation de l’IA dans des contextes sensibles, notamment en ce qui concerne les relations avec les gouvernements et les implications pour la sécurité. Le débat sur l’éthique de l’IA continue d’évoluer, avec des mises à jour récentes sur les politiques de l’entreprise concernant l’utilisation de sa technologie pour la surveillance.