Éthique et intelligence artificielle : enjeux militaires contemporains

An antique hourglass filled with binary code instead of sand

Histoire rechargée alors que l’IA met l’éthique sur la sellette

À chaque époque, l’arrivée de nouvelles technologies militaires a contraint les États à revisiter un ensemble récurrent de questions morales et stratégiques. Les commandants et les législateurs se sont toujours demandé si un outil est légal et si son utilisation est judicieuse. Par exemple, l’introduction de l’étrier a modifié la guerre montée au début du Moyen Âge, car il permettait aux cavaliers de se stabiliser lors de l’impact, transformant ainsi la cavalerie en une force décisive. La diffusion de la poudre à canon a changé la conduite des sièges, la formation des États et la hiérarchie du pouvoir militaire en Europe et en Asie.

Au cours des années 1930, l’armure mécanisée et l’infanterie motorisée ont forcé les gouvernements à réviser le rôle de la cavalerie, la logistique et la mobilisation industrielle. Le radar, les premiers ordinateurs et les systèmes de commandement et de contrôle nucléaire ont créé de nouveaux environnements de prise de décision pendant la Seconde Guerre mondiale et la Guerre froide.

À chaque tournant historique, le débat éthique est intervenu plus tard, après les démonstrations du potentiel sur le champ de bataille et après que les conséquences stratégiques soient devenues claires. Les sociétés qui s’abstenaient de nouvelles capacités se retrouvaient souvent désavantagées face à d’autres puissances qui avançaient, prenaient l’initiative et remodelaient les conditions dans lesquelles les conflits se produisaient.

Le dilemme moderne de l’IA

Les démocraties font maintenant face à une version moderne de ce dilemme en ce qui concerne l’intelligence artificielle. Le rythme de développement des systèmes militaires habilités par l’IA s’est accéléré au cours des deux dernières décennies. Depuis que le UAV de combat Wing Loong-1 est entré en service en 2009, une expansion continue des plateformes aériennes et maritimes autonomes et semi-autonomes a eu lieu dans certains pays.

Une première tentative d’établir des normes partagées a eu lieu en 2024, lorsque 90 gouvernements ont assisté au sommet sur l’IA responsable dans le domaine militaire. Toutefois, un certain nombre d’États ont refusé d’adopter le document proposé, reflétant des tentatives antérieures de réglementation des armements, où les États démocratiques cherchaient à contraindre juridiquement alors que les régimes autoritaires cherchaient une liberté d’action.

Questions éthiques et cadre stratégique

Un moyen structuré d’examiner la dimension éthique de cette transition existe sous la forme de la tradition de la Guerre Juste. Cette tradition a développé des méthodes pour concilier les devoirs moraux avec la réalité pratique des conflits armés. Trois principes continuent de guider l’analyse contemporaine : Jus ad Bellum, Jus in Bello et Jus post Bellum.

Dans le cadre de Jus ad Bellum, les capacités de fusion de capteurs et de reconnaissance de motifs habilitées par l’IA peuvent améliorer l’intelligence et la discrimination des cibles. Cela peut aider les commandants à évaluer la proportionnalité et la nécessité avant d’engager des forces.

Concernant Jus in Bello, il a été observé que les systèmes d’aide à la décision basés sur l’apprentissage automatique peuvent permettre aux décideurs humains de se conformer au droit international humanitaire en accélérant l’analyse des informations pertinentes.

Enfin, sous Jus post Bellum, l’IA peut aider à la documentation, à la collecte de preuves et à la cartographie des dommages, soutenant ainsi la responsabilité, les réparations et la transition ordonnée vers la paix.

Conclusion

Les sociétés démocratiques ne peuvent pas compter uniquement sur la retenue morale lorsque d’autres acteurs cherchent à tirer parti de l’innovation technologique. La réponse la plus éthiquement responsable pour ces États est de veiller à ce que le développement de l’IA soit conforme au droit international, préserve la responsabilité humaine et respecte les normes humanitaires.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...