Anthropic vs o Pentágono: um concurso decisivo sobre quem define as regras para a IA
Há uma citação popularmente atribuída ao revolucionário russo Vladimir Lenin que diz que há décadas em que nada acontece; e há semanas em que décadas acontecem. Esta semana parece ter sido uma dessas semanas.
No contexto do conflito em andamento no Irã e das tensões aumentadas entre a administração Trump e seus tradicionais aliados europeus, você poderia perdoar a falta de atenção às notícias da semana passada, onde o Pentágono designou a gigante da IA Anthropic como um “risco de cadeia de suprimentos”. Embora a decisão venha com um período de carência de seis meses, efetivamente impede que qualquer agência federal e qualquer empresa que faça negócios com o exército dos EUA – incluindo grandes nomes da tecnologia – usem a tecnologia da Anthropic em qualquer trabalho com o Departamento de Guerra.
A decisão do Pentágono foi uma consequência natural de semanas de posturas públicas após um impasse com a Anthropic, mas a importância da decisão e o que isso significa para o futuro da regulamentação da IA não devem ser subestimados.
Como chegamos aqui?
Em julho de 2025, o Pentágono concedeu acordos de teto de US$ 200 milhões a quatro empresas de IA “fronteiriças”, com o modelo Claude da Anthropic sendo o primeiro liberado para uso em redes classificadas. Esse período de lua de mel terminou quando o Departamento pressionou por um padrão de “todos os propósitos lícitos”, efetivamente substituindo as diretrizes da empresa pela política governamental. O CEO da Anthropic deixou claro que suas duas linhas vermelhas eram o uso de Claude para vigilância em massa de cidadãos dos EUA e na implantação de armas totalmente autônomas. Depois de nenhuma movimentação de ambos os lados, a decisão de designar a Anthropic como um risco de cadeia de suprimentos foi tomada.
É importante notar quão pessoal toda essa questão se tornou. O presidente atacou a “esquerda radical” da Anthropic, descrevendo a empresa como “radical esquerda” e ameaçando consequências civis e criminais. Enquanto isso, o Secretário de Guerra comentou sobre a “aula magistral de arrogância e traição” da Anthropic, acusando a empresa de tentar controlar o processo de tomada de decisão do exército dos EUA.
Enquanto isso, o principal beneficiário de toda essa situação foi a OpenAI, que foi menos hesitante em suas linhas vermelhas e prontamente assinou o contrato de US$ 200 milhões com o Departamento de Guerra. O chefe da OpenAI, um ex-colega do CEO da Anthropic agora concorrente, se afastou para fundar a Anthropic após uma série de desacordos, incluindo sobre segurança em IA.
Implicações e riscos
Enquanto as negociações continuam entre os oficiais dos EUA e a Anthropic, é significativo que o Pentágono continue usando a Anthropic como parte de suas operações no Irã. No cerne dessa saga está a questão central de quem define os termos de uso da IA.
Por um lado, os governos têm a responsabilidade democrática de tomar decisões que consideram do interesse nacional, incluindo sobre o uso de tecnologias emergentes. Por outro lado, ninguém conhece essa tecnologia melhor do que as grandes empresas de tecnologia, que entendem o que ela pode e não pode fazer. É impossível separar a atual corrida em direção à superinteligência em IA das tensões geopolíticas mais amplas entre os EUA e a China, que provavelmente moldarão a próxima fase do século XXI. A arte da política e da regulamentação é lenta e deliberativa por design, contrastando com a velocidade do desenvolvimento da IA.
O que vem a seguir?
O Claude continua sendo usado pelo exército dos EUA em suas ações no Oriente Médio e, dependendo da duração do conflito, isso pode exigir um retrocesso daquela janela de seis meses antes que a designação de risco de cadeia de suprimentos da Anthropic entre totalmente em vigor. Do ponto de vista comercial e de relações públicas, a Anthropic parece estar se recuperando bem e viu um aumento de popularidade esta semana, com o Claude superando o ChatGPT na loja da Apple e a base de assinantes pagos do Claude mais que dobrando desde o início de 2026.
Esta é uma história sobre personalidades, princípios e linhas vermelhas. Na era da IA, governo e negócios precisarão trabalhar juntos cada vez mais para navegar por essas questões, ou corremos o risco de ver muito mais casos como este nos próximos anos.