Histoire rechargée alors que l’IA met l’éthique sur la sellette
À chaque époque, l’arrivée de nouvelles technologies militaires a contraint les États à revisiter un ensemble récurrent de questions morales et stratégiques. Les commandants et les législateurs se sont toujours demandé si un outil est légal et si son utilisation est judicieuse. Par exemple, l’introduction de l’étrier a modifié la guerre montée au début du Moyen Âge, car il permettait aux cavaliers de se stabiliser lors de l’impact, transformant ainsi la cavalerie en une force décisive. La diffusion de la poudre à canon a changé la conduite des sièges, la formation des États et la hiérarchie du pouvoir militaire en Europe et en Asie.
Au cours des années 1930, l’armure mécanisée et l’infanterie motorisée ont forcé les gouvernements à réviser le rôle de la cavalerie, la logistique et la mobilisation industrielle. Le radar, les premiers ordinateurs et les systèmes de commandement et de contrôle nucléaire ont créé de nouveaux environnements de prise de décision pendant la Seconde Guerre mondiale et la Guerre froide.
À chaque tournant historique, le débat éthique est intervenu plus tard, après les démonstrations du potentiel sur le champ de bataille et après que les conséquences stratégiques soient devenues claires. Les sociétés qui s’abstenaient de nouvelles capacités se retrouvaient souvent désavantagées face à d’autres puissances qui avançaient, prenaient l’initiative et remodelaient les conditions dans lesquelles les conflits se produisaient.
Le dilemme moderne de l’IA
Les démocraties font maintenant face à une version moderne de ce dilemme en ce qui concerne l’intelligence artificielle. Le rythme de développement des systèmes militaires habilités par l’IA s’est accéléré au cours des deux dernières décennies. Depuis que le UAV de combat Wing Loong-1 est entré en service en 2009, une expansion continue des plateformes aériennes et maritimes autonomes et semi-autonomes a eu lieu dans certains pays.
Une première tentative d’établir des normes partagées a eu lieu en 2024, lorsque 90 gouvernements ont assisté au sommet sur l’IA responsable dans le domaine militaire. Toutefois, un certain nombre d’États ont refusé d’adopter le document proposé, reflétant des tentatives antérieures de réglementation des armements, où les États démocratiques cherchaient à contraindre juridiquement alors que les régimes autoritaires cherchaient une liberté d’action.
Questions éthiques et cadre stratégique
Un moyen structuré d’examiner la dimension éthique de cette transition existe sous la forme de la tradition de la Guerre Juste. Cette tradition a développé des méthodes pour concilier les devoirs moraux avec la réalité pratique des conflits armés. Trois principes continuent de guider l’analyse contemporaine : Jus ad Bellum, Jus in Bello et Jus post Bellum.
Dans le cadre de Jus ad Bellum, les capacités de fusion de capteurs et de reconnaissance de motifs habilitées par l’IA peuvent améliorer l’intelligence et la discrimination des cibles. Cela peut aider les commandants à évaluer la proportionnalité et la nécessité avant d’engager des forces.
Concernant Jus in Bello, il a été observé que les systèmes d’aide à la décision basés sur l’apprentissage automatique peuvent permettre aux décideurs humains de se conformer au droit international humanitaire en accélérant l’analyse des informations pertinentes.
Enfin, sous Jus post Bellum, l’IA peut aider à la documentation, à la collecte de preuves et à la cartographie des dommages, soutenant ainsi la responsabilité, les réparations et la transition ordonnée vers la paix.
Conclusion
Les sociétés démocratiques ne peuvent pas compter uniquement sur la retenue morale lorsque d’autres acteurs cherchent à tirer parti de l’innovation technologique. La réponse la plus éthiquement responsable pour ces États est de veiller à ce que le développement de l’IA soit conforme au droit international, préserve la responsabilité humaine et respecte les normes humanitaires.