Um Modelo Baseado em Cenários de Combate para Quantificar a Tomada de Decisão Ética em IA Militar
Nota do Editor: O artigo no qual este texto é baseado foi apresentado na 9ª Conferência Internacional Anual sobre Tecnologia da Informação, realizada em novembro de 2025. Ele é reproduzido aqui com a gentil permissão da IEEE.
Introdução
No século XXI, a tecnologia de inteligência artificial (IA) tem impulsionado uma mudança de paradigma na defesa, especialmente ao aprimorar significativamente as capacidades operacionais no domínio da força aérea. Sistemas de combate alimentados por IA apoiam uma ampla gama de funções, como detecção de alvos, tomada de decisões táticas, consciência situacional e voo autônomo, reduzindo assim a carga cognitiva sobre os pilotos humanos e melhorando a capacidade de resposta em tempo real e a sobrevivência.
No entanto, a crescente autonomia dos sistemas de IA traz desafios complexos, incluindo potenciais violações do direito internacional, erros de tomada de decisão e atribuição ambígua de responsabilidade ética. Isso gerou uma necessidade crescente de redefinir o papel dos pilotos de caça humanos nas operações integradas com IA. Para abordar essas questões, este estudo propõe um modelo quantitativo de tomada de decisão ética que integra matematicamente princípios éticos militares nacionais e normas legais internacionais, incorporando variáveis dinâmicas de campo de batalha. O modelo proposto visa contribuir para o desenvolvimento de políticas de defesa e sistemas de treinamento de combate, oferecendo uma estrutura de avaliação ética estruturada e aplicável operacionalmente.
Trabalho Relacionado
Este artigo propõe uma estrutura fundamental para modelar matematicamente a tomada de decisão ética em sistemas de combate habilitados por IA. Para apoiar essa estrutura, o artigo examina e analisa pesquisas anteriores em três domínios principais: 1) o desenvolvimento de tecnologias de IA integradas em aeronaves de caça; 2) padrões éticos militares nacionais; e 3) abordagens para a quantificação do julgamento ético. Com base nesta análise, o artigo enfatiza sua contribuição única e diferenciada para a literatura atual sobre ética militar em IA.
Evolução dos Sistemas de Aeronaves de Caça Baseados em IA
A tecnologia de caças com IA está avançando de diversas maneiras, dependendo das estratégias nacionais. Os Estados Unidos estão buscando equipes não tripuladas e plataformas de combate de próxima geração por meio de iniciativas como a Evolução do Combate Aéreo, Skyborg e Dominância Aérea da Próxima Geração. A China está integrando sistemas de piloto de IA no J-20 e aprimorando as capacidades de combate autônomo de drones alimentados por IA. A Europa está focando em operações humanas assistidas por IA e tecnologias de análise de campo de batalha baseadas na nuvem sob programas como o Sistema de Combate Aéreo do Futuro e Tempest, com forte ênfase na conformidade ética e segurança operacional. Esses desenvolvimentos estão mudando o papel dos pilotos humanos de operadores para tomadores de decisão estratégicos ou supervisores, destacando a necessidade de modelos quantitativos que sustentem a ética de design e estruturas de responsabilidade.
Padrões Nacionais para a Ética Militar em IA
À medida que a aplicação militar de tecnologias de IA se expande, os países estão estabelecendo padrões éticos de IA militar com base em seus objetivos estratégicos e princípios filosóficos. Os Estados Unidos enfatizam a responsabilidade baseada na utilidade prática, a União Europeia promove princípios centrados no ser humano, a China prioriza a ética estratégica centrada no estado, e a Coreia do Sul ainda está nos estágios iniciais de desenvolvimento institucional.
Políticas-Chave por País:
- Estados Unidos: Padrões éticos de IA alinham-se com a doutrina militar existente e estruturas legais.
- China: A ética é guiada por valores centrais socialistas e interesses de segurança nacional.
- União Europeia: Foca em princípios centrados no ser humano, transparência e responsabilidade.
- Coreia do Sul: Desenvolvendo diretrizes abrangentes para IA ética em aplicações de defesa.