Da Clipper Chip ao Claude: Uma História do Poder do Governo vs. Segurança da Tecnologia
Este é o primeiro de alguns posts que examinam o impasse entre o Pentágono e uma empresa de tecnologia, e suas implicações para a governança da IA.
Em 24 de fevereiro, o Secretário do Departamento de Guerra deu um ultimato à empresa: remover as barreiras de segurança do sistema para uso militar, ou perder um contrato de $200 milhões e ser considerada uma ameaça à segurança nacional. A empresa se recusou. Três dias depois, o governo cumpriu a ameaça.
A confrontação parece sem precedentes. De certa forma, é. Por exemplo, é a primeira vez que o governo federal aplicou a designação de risco na cadeia de suprimentos a uma empresa de tecnologia americana.
De outras maneiras, não é. Para entender o que acabou de acontecer — e o que vem a seguir —, é útil compreender o que aconteceu antes. A colisão entre o poder do governo e a arquitetura de segurança das empresas de tecnologia é um padrão recorrente na política tecnológica americana, e cada episódio anterior moldou o cenário de maneiras que têm relevância direta para este momento importante.
A Clipper Chip (1993–1996)
Em 1993, a administração Clinton propôs a Clipper Chip: um módulo de criptografia projetado pelo governo para ser instalado em todos os equipamentos de telecomunicações, com um sistema de “escrow de chave” que daria acesso às agências federais às comunicações criptografadas. O objetivo declarado era impedir que criminosos e adversários estrangeiros “ficassem no escuro” por trás de criptografias inquebráveis.
A indústria de tecnologia e organizações de direitos civis montaram uma campanha sustentada contra isso. O argumento central era estrutural, não político: uma porta dos fundos obrigatória construída para a aplicação da lei é uma porta dos fundos disponível para qualquer um que a descubra ou a comprometa. A fraqueza da segurança para um propósito enfraquece para todos os propósitos. Em 1994, um pesquisador demonstrou uma falha criptográfica fundamental no mecanismo de escrow, e em 1996 a iniciativa estava efetivamente morta.
A Clipper Chip estabeleceu um princípio que ecoou em cada confronto subsequente: o interesse do governo em acessar a tecnologia não anula automaticamente o julgamento técnico de que certas características de segurança são essenciais. Removê-las faz com que o sistema falhe de maneira diferente — não apenas para o usuário pretendido, mas para todos.
Apple vs. o FBI (2016)
Vinte anos depois, o mesmo argumento estrutural ressurgiu. Após o tiroteio de San Bernardino em 2015, o FBI obteve uma ordem judicial exigindo que a Apple construísse um sistema operacional personalizado que contornasse as proteções de criptografia do iPhone. A Apple se recusou.
A CEO publicou uma carta aberta argumentando que criar uma ferramenta de porta dos fundos — mesmo para um único dispositivo — estabeleceria um precedente e criaria uma capacidade que não poderia ser contida de forma confiável. O FBI acabou comprando uma ferramenta de exploração de terceiros e abandonou o caso antes que um tribunal pudesse decidir.
O questionamento legal — se a lei permite que uma empresa modifique a arquitetura de segurança de seu próprio produto — nunca foi resolvido. Mas o episódio confirmou duas coisas: primeiro, a autoridade do governo sobre o design de segurança do produto tem limites práticos, mesmo em contextos de segurança nacional. Segundo, a indústria de tecnologia lutaria em vez de se conformar quando acreditasse que a demanda comprometia a integridade de seus sistemas.
Google e o Projeto Maven (2018)
O capítulo específico de IA dessa história começa com o Projeto Maven, um programa do Pentágono que usa aprendizado de máquina para analisar imagens de vigilância de drones. A Google ganhou um contrato para fornecer tecnologia de reconhecimento de imagem. Quando os funcionários souberam da natureza do trabalho, milhares assinaram uma petição se opondo à participação da empresa em sistemas de direcionamento letal. Uma dúzia renunciou.
A Google se recusou a renovar o contrato e publicou um conjunto de princípios de IA afirmando que não construiria IA para armas ou vigilância que violasse “normas aceitas internacionalmente”. O Pentágono tirou uma lição diferente: a participação voluntária das empresas de tecnologia era frágil — e o estabelecimento de defesa não poderia construir sua estratégia de IA em uma cooperação que poderia evaporar sob pressão interna. As sementes de uma abordagem mais coercitiva foram plantadas.
A Licença Grok-Pentágono (2025)
O precedente mais recente antes do impasse foi também o mais revelador. O Pentágono licenciou um sistema para aplicações militares em 2025. Este foi o mesmo sistema que gerou saídas problemáticas. O Pentágono não reconheceu publicamente que seu processo de aquisição de IA selecionou um sistema com preocupações de governança documentadas, nem anunciou uma revisão dos protocolos internos de implementação de IA.
Essa situação levanta uma pergunta que o impasse torna inevitável: se o Pentágono licenciou um sistema com falhas de segurança documentadas e agora está exigindo que outro fornecedor remova controles de segurança, que estrutura de governança realmente possui? As possibilidades lógicas são preocupantes: ou (1) não há estrutura, (2) a estrutura não conseguiu identificar os problemas, ou (3) a estrutura os identificou e mesmo assim adquiriu o sistema?
Anthropic (2026): Da Persuasão à Coerção
Cada confronto anterior envolveu retirada voluntária, litígios não resolvidos ou aquisições silenciosas sem controvérsia. O impasse representa uma mudança qualitativa. Pela primeira vez, o governo passou da persuasão à coerção — invocando uma lei, ameaçando uma designação de risco à cadeia de suprimentos com precedentes inexistentes, e estabelecendo um prazo de 72 horas.
A escalada é significativa. Após o Projeto Maven, o Pentágono aprendeu que a cooperação voluntária era pouco confiável. Após a Apple, aprendeu que o litígio era lento e incerto. A abordagem parece ser uma tentativa de contornar ambos os problemas, convertendo o que antes era uma negociação em um comando respaldado por consequências punitivas.
O Padrão e Suas Lições
Ao longo de três décadas, cada confronto ampliou as ferramentas de ambos os lados. As empresas de tecnologia passaram de protestos internos a desafios legais públicos. O governo evoluiu de propostas regulatórias a ordens judiciais e, finalmente, à coerção executiva. A lacuna entre o que o estabelecimento de defesa deseja dos sistemas de tecnologia e o que os desenvolvedores consideram seguro aumentar com cada iteração.
Essas observações emergem do padrão:
1. Argumentos sobre portas dos fundos se repetem porque a lógica de engenharia é durável. Desde a Clipper Chip até a Anthropic, a reivindicação estrutural é a mesma: modificar a arquitetura de segurança para um usuário poderoso cria vulnerabilidades que afetam todos os usuários. A tecnologia muda; o princípio não.
2. Questões legais não resolvidas se acumulam. A questão nunca respondida da Apple permanece, e a questão de coerção da Anthropic provavelmente será litigada em um terreno igualmente não testado.
3. Os riscos aumentam com a capacidade. A Clipper Chip tratava de ler chamadas telefônicas. A Apple lidava com o desbloqueio de um dispositivo. A Anthropic envolve a arquitetura de segurança de sistemas de IA de fronteira, capazes de raciocínio autônomo e tomada de decisões em tempo real em larga escala.
Na próxima postagem, examinaremos por que a ferramenta legal específica do Pentágono cria um paradoxo na política de IA; você não pode compelir inovações em controles de segurança que está simultaneamente exigindo que sejam removidos.