Google sob pressão sobre ética de IA e suposta assistência militar israelense
Google teria violado suas próprias regras de ética em inteligência artificial em 2024 ao ajudar um contratante militar israelense a analisar filmagens de drones, de acordo com uma denúncia de ex-funcionário revisada por um veículo de comunicação. A denúncia levanta novas questões sobre como grandes empresas de tecnologia aplicam políticas de IA durante conflitos armados e destaca o crescente escrutínio sobre o uso de IA em trabalhos militares e de vigilância.
Detalhes da denúncia
Um ex-funcionário da Google apresentou a denúncia à Comissão de Valores Mobiliários dos EUA, alegando que a empresa violou seus princípios de IA publicamente declarados, que proíbem o uso de IA para armas ou vigilância que viole normas internacionais. Segundo a denúncia, a divisão de computação em nuvem da Google ofereceu ajuda a um cliente relacionado às forças armadas de Israel.
O pedido supostamente veio de um endereço de e-mail vinculado às Forças de Defesa de Israel. O cliente tinha um nome correspondente a um funcionário de uma empresa de tecnologia israelense. A denúncia afirma que essa empresa atua como contratante para as forças armadas israelenses.
O cliente entrou em contato com o suporte da Google devido a um problema técnico ao usar o sistema de IA Gemini da empresa para analisar filmagens aéreas. O usuário relatou um erro que fazia com que o software não identificasse objetos nas filmagens, incluindo drones e soldados. A equipe de suporte da Google respondeu com sugestões e realizou testes internos para revisar a questão.
Implicações e riscos
Após várias mensagens, o problema se resolveu. A denúncia menciona que outro funcionário da Google se juntou à cadeia de e-mails, supostamente apoiando a conta de nuvem da IDF. O ex-funcionário alegou que as filmagens estavam relacionadas a operações militares israelenses em Gaza durante a guerra Israel-Hamas. Contudo, a denúncia não incluía evidências diretas que apoiassem essa afirmação.
A denúncia argumenta que as ações da Google contradizem suas políticas de ética em IA e que a empresa enganou reguladores e investidores. O ex-funcionário afirmou que a Google aplica seu processo de revisão de IA de maneira desigual, afirmando que a empresa costuma fazer cumprir suas regras éticas rigorosamente, mas que adotou uma abordagem diferente no contexto de Israel e Gaza.
Resposta da Google
A Google negou as alegações e rejeitou a ideia de dupla moral. Um porta-voz da empresa afirmou que o pedido de suporte não violava as políticas de IA e que a conta que fez o pedido gastava menos de algumas centenas de dólares por mês em serviços de IA, o que tornava o uso significativo de IA impossível. A empresa também declarou que sua equipe de suporte forneceu apenas orientações gerais e não ajudou com trabalho relacionado a armas ou inteligência.
Os serviços de inteligência de vídeo da Google permitem que os usuários acompanhem objetos nas filmagens. A empresa oferece os primeiros 1.000 minutos gratuitamente, com um custo de aproximadamente 15 centavos por minuto após isso. Críticos afirmam que mesmo o suporte limitado pode levantar preocupações éticas, argumentando que ajudar a solucionar problemas de IA usados em filmagens de drones pode ainda auxiliar operações militares.
A denúncia surge em um momento em que a Google alterou sua postura pública sobre o uso de IA. Em fevereiro de 2025, a empresa atualizou sua política de IA, removendo um compromisso de evitar o uso em vigilância e armas. A Google alegou que precisava de flexibilidade para apoiar governos democraticamente eleitos, citando mudanças globais rápidas no desenvolvimento da IA.
Denúncias à Comissão de Valores Mobiliários não acionam automaticamente investigações, e qualquer pessoa pode apresentá-las. Os reguladores decidirão se devem ou não prosseguir com ações adicionais.