Un modèle basé sur des scénarios de combat pour quantifier la prise de décision éthique dans l’IA militaire
Note de l’éditeur
Le document sur lequel cet article est basé a été présenté lors de la 9e Conférence internationale annuelle sur la technologie de l’information, tenue en novembre 2025. Il est reproduit ici avec l’aimable autorisation de l’organisateur.
Introduction
Au 21e siècle, la technologie de l’intelligence artificielle (IA) entraîne un changement de paradigme dans la défense, en améliorant considérablement les capacités opérationnelles dans le domaine de l’aviation. Les systèmes de combat alimentés par l’IA soutiennent une large gamme de fonctions telles que la détection de cibles, la prise de décision tactique, la conscience situationnelle et le vol autonome. Cela réduit la charge cognitive des pilotes humains et améliore la réactivité en temps réel ainsi que la survie. Cependant, l’autonomie croissante des systèmes d’IA introduit des défis complexes, y compris des violations potentielles du droit international, des erreurs de prise de décision et une attribution ambiguë de la responsabilité éthique. Cela a conduit à un besoin croissant de redéfinir le rôle des pilotes de chasse humains dans les opérations intégrées à l’IA.
Modèle de prise de décision éthique
Pour aborder ces problèmes, cette étude propose un modèle quantitatif de prise de décision éthique qui intègre mathématiquement les principes éthiques militaires nationaux et les normes juridiques internationales, tout en incorporant des variables dynamiques du champ de bataille. Le modèle proposé vise à contribuer au développement de politiques de défense et de systèmes d’entraînement au combat en offrant un cadre d’évaluation éthique structuré et applicable opérationnellement.
Travaux connexes
Cet article propose un cadre fondamental pour modéliser mathématiquement la prise de décision éthique dans les systèmes de combat habilités par l’IA. Pour soutenir ce cadre, le document examine et analyse des recherches antérieures dans trois domaines clés :
- Le développement de technologies d’IA intégrées dans les avions de chasse ;
- Les normes éthiques militaires nationales ;
- Les approches de quantification du jugement éthique.
Sur la base de cette analyse, l’article souligne sa contribution unique et différenciée à la littérature actuelle sur l’éthique de l’IA militaire.
Évolution des systèmes d’avions de chasse basés sur l’IA
La technologie des avions de chasse alimentée par l’IA évolue de manière diverse en fonction des stratégies nationales. Les États-Unis poursuivent des initiatives telles que l’évolution du combat aérien, l’intégration de systèmes de pilotes d’IA dans les drones et le développement de plateformes de combat de prochaine génération. L’Europe se concentre sur les opérations humaines assistées par l’IA et les technologies d’analyse du champ de bataille basées sur le cloud, mettant fortement l’accent sur la conformité éthique et la sécurité opérationnelle. Ces développements modifient le rôle des pilotes humains, les transformant d’opérateurs en décideurs stratégiques ou superviseurs, soulignant ainsi le besoin de modèles quantitatifs qui soutiennent la conception éthique et les cadres de responsabilité.
Normes nationales pour l’éthique de l’IA militaire
À mesure que l’application militaire des technologies d’IA s’étend, les pays établissent des normes éthiques en matière d’IA militaire basées sur leurs objectifs stratégiques et leurs principes philosophiques. Les États-Unis mettent l’accent sur la responsabilité ancrée dans l’utilité pratique, l’Union européenne promeut des principes centrés sur l’humain, la Chine privilégie une éthique stratégique centrée sur l’État, et la Corée du Sud en est encore aux premières étapes de développement institutionnel.
Politiques clés par pays
- États-Unis : Les normes éthiques de l’IA s’alignent sur la doctrine militaire existante et les cadres juridiques.
- Chine : L’éthique est guidée par des valeurs fondamentales socialistes et des intérêts de sécurité nationale.
- Union européenne : Met l’accent sur des principes centrés sur l’humain, la transparence et la responsabilité.
- Corée du Sud : Développe des lignes directrices complètes pour une IA éthique dans les applications de défense.