Google e a ética da IA: polêmica sobre apoio militar israelense

Google sob pressão sobre ética de IA e suposta assistência militar israelense

Google teria violado suas próprias regras de ética em inteligência artificial em 2024 ao ajudar um contratante militar israelense a analisar filmagens de drones, de acordo com uma denúncia de ex-funcionário revisada por um veículo de comunicação. A denúncia levanta novas questões sobre como grandes empresas de tecnologia aplicam políticas de IA durante conflitos armados e destaca o crescente escrutínio sobre o uso de IA em trabalhos militares e de vigilância.

Detalhes da denúncia

Um ex-funcionário da Google apresentou a denúncia à Comissão de Valores Mobiliários dos EUA, alegando que a empresa violou seus princípios de IA publicamente declarados, que proíbem o uso de IA para armas ou vigilância que viole normas internacionais. Segundo a denúncia, a divisão de computação em nuvem da Google ofereceu ajuda a um cliente relacionado às forças armadas de Israel.

O pedido supostamente veio de um endereço de e-mail vinculado às Forças de Defesa de Israel. O cliente tinha um nome correspondente a um funcionário de uma empresa de tecnologia israelense. A denúncia afirma que essa empresa atua como contratante para as forças armadas israelenses.

O cliente entrou em contato com o suporte da Google devido a um problema técnico ao usar o sistema de IA Gemini da empresa para analisar filmagens aéreas. O usuário relatou um erro que fazia com que o software não identificasse objetos nas filmagens, incluindo drones e soldados. A equipe de suporte da Google respondeu com sugestões e realizou testes internos para revisar a questão.

Implicações e riscos

Após várias mensagens, o problema se resolveu. A denúncia menciona que outro funcionário da Google se juntou à cadeia de e-mails, supostamente apoiando a conta de nuvem da IDF. O ex-funcionário alegou que as filmagens estavam relacionadas a operações militares israelenses em Gaza durante a guerra Israel-Hamas. Contudo, a denúncia não incluía evidências diretas que apoiassem essa afirmação.

A denúncia argumenta que as ações da Google contradizem suas políticas de ética em IA e que a empresa enganou reguladores e investidores. O ex-funcionário afirmou que a Google aplica seu processo de revisão de IA de maneira desigual, afirmando que a empresa costuma fazer cumprir suas regras éticas rigorosamente, mas que adotou uma abordagem diferente no contexto de Israel e Gaza.

Resposta da Google

A Google negou as alegações e rejeitou a ideia de dupla moral. Um porta-voz da empresa afirmou que o pedido de suporte não violava as políticas de IA e que a conta que fez o pedido gastava menos de algumas centenas de dólares por mês em serviços de IA, o que tornava o uso significativo de IA impossível. A empresa também declarou que sua equipe de suporte forneceu apenas orientações gerais e não ajudou com trabalho relacionado a armas ou inteligência.

Os serviços de inteligência de vídeo da Google permitem que os usuários acompanhem objetos nas filmagens. A empresa oferece os primeiros 1.000 minutos gratuitamente, com um custo de aproximadamente 15 centavos por minuto após isso. Críticos afirmam que mesmo o suporte limitado pode levantar preocupações éticas, argumentando que ajudar a solucionar problemas de IA usados em filmagens de drones pode ainda auxiliar operações militares.

A denúncia surge em um momento em que a Google alterou sua postura pública sobre o uso de IA. Em fevereiro de 2025, a empresa atualizou sua política de IA, removendo um compromisso de evitar o uso em vigilância e armas. A Google alegou que precisava de flexibilidade para apoiar governos democraticamente eleitos, citando mudanças globais rápidas no desenvolvimento da IA.

Denúncias à Comissão de Valores Mobiliários não acionam automaticamente investigações, e qualquer pessoa pode apresentá-las. Os reguladores decidirão se devem ou não prosseguir com ações adicionais.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...