Quando a ética da IA colide com a segurança nacional: A confrontação entre a Anthropic e o Pentágono
Na semana de 27 de fevereiro a 3 de março de 2026, um confronto de alto risco começou a desenhar novas linhas de batalha entre o Vale do Silício e o setor militar dos EUA. A empresa de IA Anthropic se viu excluída do Pentágono após recusar-se a renunciar às suas salvaguardas éticas.
Como tudo começou
O embate teve início devido a uma disputa contratual. O Pentágono buscava garantias de que o modelo da Anthropic, Claude, poderia ser utilizado para “todos os propósitos legais”. A Anthropic respondeu, argumentando que tal redação não restringia suficientemente os usos que a empresa considera de alto risco, em particular a vigilância em massa e sistemas de armas totalmente autônomos. A empresa pediu diretrizes mais claras.
Como a situação se agravou
A designação de risco na cadeia de suprimentos foi um passo que elevou a tensão. Funcionários sinalizaram que a Anthropic corria o risco de perder contratos federais e poderia até ser classificada como um risco na cadeia de suprimentos. A administração avançou com essa medida, ordenando que as agências suspendessem o uso dos sistemas da Anthropic e fornecendo um período limitado de seis meses para encerrar os arranjos existentes.
Designações de risco na cadeia de suprimentos são tipicamente reservadas para ameaças de adversários estrangeiros, não para empresas domésticas que negociam termos contratuais. Especialistas e a Anthropic argumentam que tal designação não tem precedente claro, e a empresa planeja contestá-la judicialmente.
Entrada da empresa rival
Com a exclusão da Anthropic, a OpenAI rapidamente firmou um contrato com o Pentágono. A empresa enfatizou que mantém “linhas vermelhas” de segurança, incluindo restrições relacionadas à vigilância em massa e a exigência de supervisão humana no uso da força. O CEO da OpenAI indicou que compartilha muitas das mesmas preocupações éticas levantadas pela Anthropic.
No entanto, ele descreveu o contrato da OpenAI com o Pentágono como apressado, acrescentando que o acordo seria alterado para garantir que o sistema de IA não fosse utilizado para vigilância em massa.
As reações
O episódio reverberou em todo o setor de tecnologia. Grandes grupos da indústria, incluindo representantes de várias empresas, alertaram o governo contra o uso amplo de designações de risco na cadeia de suprimentos para empresas de tecnologia dos EUA, temendo efeitos negativos na inovação e na cooperação público-privada.
Investidores da Anthropic também pressionaram pela desescalada, preocupados que o impasse pudesse prejudicar os negócios da empresa e suas perspectivas de IPO se contratos-chave fossem perdidos.
Entretanto, no dia seguinte à perda do contrato com o Pentágono, Claude alcançou o primeiro lugar em downloads de aplicativos nos EUA, enquanto as desinstalações do aplicativo móvel ChatGPT aumentaram 295% dia a dia. Isso sugere que Claude pode não perder popularidade entre os usuários.
Por que isso importa?
Em última análise, a disputa expôs uma tensão estrutural mais profunda. Sistemas avançados de IA são cada vez mais centrais para o planejamento militar, logística, análise de inteligência e tomada de decisões em campo. Ao mesmo tempo, as principais empresas de IA têm articulado limites éticos em torno da vigilância, autonomia letal e riscos de uso dual.
A confrontação entre a Anthropic e o Pentágono cristalizou a questão de quem determina esses limites quando a segurança nacional e a governança corporativa colidem.
Outras notícias da semana
Desenvolvimentos na governança da IA
Na ONU, o Secretário-Geral destacou a enorme responsabilidade dos especialistas em moldar como a tecnologia é utilizada para o benefício da humanidade. A UNESCO assinou um acordo de cooperação para promover o desenvolvimento ético da IA na América Latina. Sete gigantes da tecnologia assinaram um compromisso para proteger os consumidores de tarifas elétricas relacionadas à infraestrutura de IA.
Segurança infantil online
Vários países estão restringindo o acesso de menores a plataformas digitais, com novas regulamentações sendo implementadas gradualmente. A União Europeia enfrenta incertezas em torno de regras temporárias para escaneamento de conteúdo de abuso infantil. O painel especial da Comissão Europeia se reunirá para discutir a segurança infantil online.
Intensificação das operações cibernéticas
Os EUA e Israel realizaram ataques coordenados contra o Irã, acompanhados de operações cibernéticas que interromperam comunicações iranianas. Atacantes alinhados ao Irã estão se preparando para potenciais retaliações cibernéticas.
Alterações nas políticas da Play Store
Após um acordo com a Epic Games, o Google planeja mudanças significativas em suas políticas da Play Store, reduzindo comissões e facilitando a instalação de lojas de aplicativos alternativas.
Conclusão
Os desenvolvimentos recentes refletem uma movimentação global crescente para proteger crianças online e abordar as complexidades da governança da IA em um cenário de segurança nacional. As tensões entre empresas de tecnologia e instituições governamentais continuam a desafiar os limites éticos e práticos da IA.