La storia si rinnova mentre l’IA mette l’etica sotto esame
In ogni era, l’arrivo di nuove tecnologie militari ha costretto gli stati a rivedere una serie ricorrente di questioni morali e strategiche. I comandanti e i legislatori si sono sempre chiesti se uno strumento fosse lecito e se il suo utilizzo fosse saggio. L’introduzione dello stivale, ad esempio, ha modificato la guerra a cavallo durante i primi Medioevi, poiché permetteva ai cavalieri di stabilizzarsi durante l’impatto, trasformando la cavalleria in una forza decisiva. La diffusione della polvere da sparo ha cambiato la conduzione degli assedi, la formazione degli stati e la gerarchia del potere militare in Europa e Asia. L’armatura meccanizzata e l’infanteria motorizzata hanno costretto i governi degli anni ’30 a rivedere il ruolo della cavalleria, la logistica e la mobilitazione industriale.
Ad ogni giuntura storica, il dibattito etico è entrato in scena più tardi, dopo le dimostrazioni del potenziale bellico e dopo che le conseguenze strategiche sono diventate chiare. Le società che si sono astenute dalle nuove capacità hanno frequentemente scoperto che altre potenze andavano avanti, guadagnavano iniziativa e ridefinivano i termini del conflitto. Gli storici registrano molti esempi in cui l’astensione ha messo una parte in svantaggio politico o militare.
Il periodo tra le due guerre
Il periodo interbellico dimostra questo schema con particolare chiarezza. Gli Stati Uniti hanno adottato una politica estera isolazionista durante gli anni ’20 e ’30 e si sono ritirati dal coinvolgimento attivo nella sicurezza europea. Gran Bretagna e Francia hanno ridotto la spesa militare e hanno partecipato a sforzi per limitare il potere navale e aereo attraverso trattati. L’opinione pubblica ha incoraggiato una visione secondo cui la moderazione e gli strumenti diplomatici avrebbero evitato un’altra crisi simile a quella del 1914. Nel frattempo, regimi autoritari in Germania, Italia e Giappone hanno ampliato la produzione di armamenti, rivisto la dottrina operativa e integrato nuove tecnologie nelle loro forze armate.
Il risultato è stato un evidente squilibrio tra le intenzioni delle società democratiche e le capacità degli stati revisionisti. Quando la guerra è scoppiata nel 1939, le democrazie possedevano argomentazioni legali ed etiche a favore della pace, mentre i loro avversari avevano trascorso un decennio preparando un conflitto industrializzato. L’astensione dagli armamenti non ha portato stabilità, ma ha abbassato il costo dell’aggressione per coloro che erano pronti ad usare la forza e ha aumentato il prezzo della resistenza.
Il dilemma moderno dell’IA
Le democrazie ora affrontano una versione moderna di questo dilemma in relazione all’intelligenza artificiale. Il ritmo dello sviluppo dei sistemi militari abilitati dall’IA è accelerato negli ultimi due decenni. Da quando il drone da combattimento Wing Loong-1 è entrato in servizio nel 2009, la Cina ha supervisionato un’espansione costante delle piattaforme aeree e marittime autonome e semi-autonome. Mosca, nel frattempo, ha articolato gli interessi in termini diretti, affermando che l’intelligenza artificiale è il futuro non solo per la Russia, ma per l’interumanità. La chiusura di questa affermazione rivela una prospettiva geopolitica in cui la superiorità dell’IA supporta la leadership globale.
Un primo tentativo di stabilire norme condivise ha avuto luogo nel 2024, quando 90 governi hanno partecipato al summit sull’IA responsabile nel dominio militare. Circa 60 stati hanno approvato una bozza intesa a guidare l’uso responsabile dell’IA sul campo di battaglia. Di questi, 30 hanno rifiutato di adottare il documento, inclusa la Cina. Questo schema riflette tentativi precedenti di regolamentazione degli armamenti, in cui gli stati democratici cercavano vincoli legali e responsabilità, mentre gli stati autoritari cercavano libertà di manovra.
Implicazioni e rischi
Le questioni etiche si inseriscono in un quadro strategico più ampio in cui l’astensione comporta costi e rischi. Un modo strutturato per esaminare la dimensione etica di questa transizione è rappresentato dalla tradizione della Guerra Giusta. Da Cicerone nella tarda Repubblica Romana attraverso Agostino e Tommaso d’Aquino, questa tradizione ha sviluppato metodi per conciliare i doveri morali con la realtà pratica del conflitto armato.
Tre principi continuano a guidare l’analisi contemporanea: Jus ad Bellum, che concerne la giustizia di andare in guerra; Jus in Bello, che concerne la giustizia della condotta durante la guerra; e Jus post Bellum, che riguarda la giustizia dopo la cessazione delle ostilità.
La giustizia dopo il conflitto richiede informazioni e l’IA aumenta sia la quantità che la velocità delle informazioni rilevanti. La discussione pubblica ha iniziato a confrontarsi con queste questioni, rivelando un crescente riconoscimento che l’IA è già integrata in molti sistemi civili e umanitari.
Il ruolo umano
Una preoccupazione persistente riguarda il ruolo dell’umano. La dottrina militare distingue ora tra tre modelli. Nel modello umano nel ciclo, gli esseri umani approvano o negano azioni letali o di targeting. Nel modello umano sopra il ciclo, i sistemi autonomi svolgono compiti, ma gli esseri umani supervisionano e possono intervenire. Infine, nel modello umano fuori dal ciclo, l’IA gestisce logistiche e manipolazioni di dati di routine.
La lezione storica più ampia descrive uno schema ricorrente in cui le società democratiche non possono fare affidamento sulla moderazione morale quando altri attori cercano vantaggi attraverso l’innovazione tecnologica. La risposta più eticamente responsabile per gli stati democratici è garantire che lo sviluppo dell’IA si conformi al diritto internazionale, preservi la responsabilità umana e rispetti gli standard umanitari.
L’alternativa sarebbe un mondo in cui le società che valorizzano i diritti umani e la moderazione legale rimangono indietro rispetto a quelle che non lo fanno, creando un ambiente geopolitico plasmato dalla coercizione piuttosto che dalla legge.