Ex-funcionário alega que empresa ajudou contratante militar com IA e violou políticas éticas
Um ex-funcionário de uma grande empresa de tecnologia acusou a companhia de violar suas políticas éticas de inteligência artificial ao ajudar um contratante militar a analisar imagens de drones em 2024. A reclamação foi apresentada à Comissão de Valores Mobiliários dos Estados Unidos e alega que a empresa infringiu seus próprios “princípios de IA”, que proibiam o uso de tecnologia de IA para vigilância de maneira que violasse normas internacionalmente aceitas.
Detalhes da reclamação
A reclamação indica que um pedido de suporte ao cliente enviado de um endereço de e-mail relacionado ao contratante militar foi recebido pela divisão de computação em nuvem da empresa. O pedido estava associado a um funcionário de uma empresa de tecnologia israelense, que, segundo a reclamação, é contratante do exército israelense.
Documentos internos anexados à reclamação descrevem que o cliente pediu ajuda após identificar um erro ao tentar utilizar uma ferramenta de IA para analisar imagens aéreas, que ocasionalmente falhava ao identificar drones e soldados. A equipe de suporte respondeu com sugestões e realizou testes internos relacionados ao pedido.
Implicações e alegações
A reclamação também afirma que as imagens aéreas estavam relacionadas às operações israelenses em uma zona de conflito, mas não fornece provas específicas para apoiar essa afirmação. O ex-funcionário alegou que a resposta do serviço ao cliente contradizia as políticas publicamente declaradas pela empresa, sugerindo que a companhia estava enganando reguladores e investidores.
A empresa negou as alegações de duplo padrão, afirmando que o uso da ferramenta de IA pelo solicitante era tão pequeno que não poderia ser considerado significativo. A equipe de suporte teria apenas respondido a uma pergunta geral, sem fornecer assistência técnica adicional.
Conclusão
As reclamações à Comissão de Valores Mobiliários podem ser feitas por qualquer indivíduo e não levam automaticamente a uma investigação. A empresa atualizou suas políticas de IA em 2025, reiterando que não permitirá o uso de sua tecnologia para vigilância ou armamentos, enfatizando a necessidade de ajudar governos democraticamente eleitos a evoluir com o uso global da IA.