Quebra da Anthropic com o Pentágono Acende Debate sobre Ética em IA
Após rejeitar as exigências do Pentágono relacionadas a armas autônomas e vigilância, a posição da Anthropic intensificou o debate sobre a ética em inteligência artificial (IA) — ecoando os recentes avisos do Vaticano.
Em meio à explosão da IA nos últimos anos, vozes católicas têm clamado pela inclusão de salvaguardas socialmente responsáveis, limites e princípios éticos na tecnologia. Agora, um dos principais desenvolvedores de IA que busca implementar isso se encontra em disputa com o governo dos EUA, alimentando um debate acalorado sobre as dimensões éticas e morais do desenvolvimento de IA.
O Papel da Anthropic
A Anthropic, uma startup de San Francisco, é criadora de um assistente de IA baseado em um modelo de linguagem que já é amplamente adotado em diversos setores da sociedade americana, incluindo empresas e escolas. Fundada em parte por ex-membros da OpenAI, a Anthropic se posicionou como a opção segura e responsável no ecossistema de IA, com seu CEO frequentemente defendendo a criação de “guardrails” para proteger a humanidade de uma IA descontrolada.
Conflito com o Governo dos EUA
O governo dos EUA, por sua vez, vem explorando o uso de IA na defesa nacional. Quatro grandes empresas de IA têm trabalhado com o Pentágono, com contratos altamente lucrativos em jogo. Por causa da abordagem cautelosa dos desenvolvedores, a Anthropic teve seu produto autorizado nas redes classificadas do Pentágono, sendo utilizado em operações militares de alto perfil.
A Anthropic estava em negociações com o Pentágono para um contrato de $200 milhões que expandiria seus produtos na defesa dos EUA. No entanto, as conversas fracassaram dramaticamente quando o secretário de defesa pressionou publicamente a Anthropic a permitir o uso de sua tecnologia para “qualquer uso lícito”, incluindo sistemas de armas autônomas e vigilância em massa dos cidadãos.
Quando a Anthropic se recusou a permitir esses usos de seu produto, o governo tomou a medida sem precedentes de designar a empresa como um “risco à cadeia de suprimentos”, ordenando que todas as agências governamentais interrompessem o uso da Anthropic em seis meses.
Implicações Éticas
A postura da Anthropic gerou uma onda de apoio nas redes sociais, com muitos usuários anunciando que deletariam produtos de concorrentes em favor da solução da Anthropic. Contudo, a decisão pode resultar em consequências financeiras severas, já que a designação de “blacklist” impede que qualquer contratante do Pentágono faça negócios com a Anthropic.
Especialistas em ética em IA expressaram apreço pela escolha da Anthropic, que reflete os apelos morais do Vaticano. A Igreja tem se oposto firmemente ao uso de sistemas de armas autônomas e vigilância em massa, alertando sobre a falta de capacidade humana para juízo moral e tomada de decisões éticas nesses contextos.
Conclusão
A decisão da Anthropic de não comprometer seus princípios éticos em relação a armas autônomas e vigilância destaca uma crescente necessidade de discutir o uso responsável da tecnologia. Embora a posição da empresa possa parecer nobre, os desafios financeiros que podem seguir colocam em risco sua sobrevivência, levantando questões sobre a viabilidade de defender a ética frente a pressões governamentais e comerciais.