História reloaded à medida que a IA coloca a ética em questão
Em todas as eras, a chegada de novas tecnologias militares forçou os estados a revisitar um conjunto recorrente de questões morais e estratégicas. Comandantes e legisladores sempre se perguntaram se uma ferramenta é legal e se seu uso é sábio. A introdução do estribo, por exemplo, alterou a guerra montada durante o início da Idade Média, pois permitiu que os cavaleiros se estabilizassem durante o impacto e transformou a cavalaria em uma força decisiva. A disseminação da pólvora mudou a condução de cercos, a formação de estados e a hierarquia do poder militar na Europa e na Ásia. O uso de armaduras mecanizadas e infantaria motorizada forçou os governos na década de 1930 a revisar o papel da cavalaria, logística e mobilização industrial.
A ética frequentemente entrava em debate posteriormente, após demonstrações do potencial de batalha e após as consequências estratégicas se tornarem claras. Sociedades que se abstiveram de novas capacidades frequentemente descobriram que outras potências avançavam, ganhavam iniciativa e remodelavam os termos de conflitos. Historiadores registram muitos exemplos onde a abstinência colocou um lado em desvantagem política ou militar.
A lição do período entre guerras
O período entre guerras demonstra esse padrão com clareza. Os Estados Unidos adotaram uma política externa isolacionista durante as décadas de 1920 e 1930 e se retiraram da participação ativa na segurança europeia. A Grã-Bretanha e a França reduziram os gastos militares e participaram de esforços para restringir o poder naval e aéreo por meio de tratados. A opinião pública incentivou uma visão de que a contenção e instrumentos diplomáticos evitariam outra crise semelhante à de 1914. Enquanto isso, regimes autoritários na Alemanha, Itália e Japão expandiram a produção de armamentos, revisaram a doutrina operacional e integraram novas tecnologias em suas forças armadas. O resultado foi um desequilíbrio pronunciado entre as intenções em sociedades democráticas e as capacidades em estados revisionistas.
O dilema moderno da IA
As democracias agora enfrentam uma versão moderna desse dilema em relação à inteligência artificial (IA). O ritmo de desenvolvimento em sistemas militares habilitados para IA acelerou nas últimas duas décadas. Desde que o UAV de combate Wing Loong-1 entrou em serviço em 2009, a China supervisionou uma expansão constante em plataformas aéreas e marítimas autônomas e semi-autônomas. Pequim também sinalizou sua intenção de distribuir IA em todo o seu exército, incluindo automação de comando, fusão de ISR (inteligência, vigilância e reconhecimento), direcionamento, guerra eletrônica e logística.
Uma tentativa inicial de estabelecer normas compartilhadas ocorreu em 2024, quando 90 governos participaram da cúpula sobre IA Responsável no Domínio Militar. Aproximadamente 60 estados endossaram um plano destinado a guiar o uso responsável da IA no campo de batalha. No entanto, 30 deles se recusaram a adotar o documento, incluindo a China. Esse padrão reflete tentativas anteriores de regulamentação de armamentos, onde estados democráticos buscaram restrição legal e responsabilização enquanto estados autoritários buscavam liberdade de manobra.
Questões éticas e o papel humano
Uma forma estruturada de examinar a dimensão ética dessa transição existe na tradição da Guerra Justa. Esta tradição desenvolveu métodos para reconciliar deveres morais com a realidade prática do conflito armado. Três princípios continuam a guiar a análise contemporânea: Jus ad Bellum, que se refere à justiça de ir à guerra; Jus in Bello, que se refere à justiça da conduta durante a guerra; e Jus post Bellum, que se refere à justiça após o cessar-fogo.
As discussões públicas começaram a lidar com essas questões. Um fórum de debate considerou se o uso da IA na guerra é eticamente justificado. O debate refletiu uma conversa societal mais ampla sobre as implicações morais de delegar funções anteriormente realizadas por humanos a sistemas que operam em velocidade de máquina. A preocupação persistente se relaciona com o papel do humano dentro do sistema.
Conclusão
As sociedades democráticas não podem confiar na contenção moral quando outros atores buscam vantagens por meio da inovação tecnológica. A resposta mais eticamente responsável para os estados democráticos é garantir que o desenvolvimento da IA esteja em conformidade com as leis internacionais, preserve a responsabilidade humana e mantenha normas humanitárias. A alternativa seria um mundo onde sociedades que valorizam os direitos humanos e a contenção legal ficam para trás em relação a sociedades que não o fazem, criando um ambiente geopolítico moldado pela coerção em vez da lei.