Etica e Intelligenza Artificiale: Riflessioni sui Conflitti Moderni

La storia si rinnova mentre l’IA mette l’etica sotto esame

In ogni era, l’arrivo di nuove tecnologie militari ha costretto gli stati a rivedere una serie ricorrente di questioni morali e strategiche. I comandanti e i legislatori si sono sempre chiesti se uno strumento fosse lecito e se il suo utilizzo fosse saggio. L’introduzione dello stivale, ad esempio, ha modificato la guerra a cavallo durante i primi Medioevi, poiché permetteva ai cavalieri di stabilizzarsi durante l’impatto, trasformando la cavalleria in una forza decisiva. La diffusione della polvere da sparo ha cambiato la conduzione degli assedi, la formazione degli stati e la gerarchia del potere militare in Europa e Asia. L’armatura meccanizzata e l’infanteria motorizzata hanno costretto i governi degli anni ’30 a rivedere il ruolo della cavalleria, la logistica e la mobilitazione industriale.

Ad ogni giuntura storica, il dibattito etico è entrato in scena più tardi, dopo le dimostrazioni del potenziale bellico e dopo che le conseguenze strategiche sono diventate chiare. Le società che si sono astenute dalle nuove capacità hanno frequentemente scoperto che altre potenze andavano avanti, guadagnavano iniziativa e ridefinivano i termini del conflitto. Gli storici registrano molti esempi in cui l’astensione ha messo una parte in svantaggio politico o militare.

Il periodo tra le due guerre

Il periodo interbellico dimostra questo schema con particolare chiarezza. Gli Stati Uniti hanno adottato una politica estera isolazionista durante gli anni ’20 e ’30 e si sono ritirati dal coinvolgimento attivo nella sicurezza europea. Gran Bretagna e Francia hanno ridotto la spesa militare e hanno partecipato a sforzi per limitare il potere navale e aereo attraverso trattati. L’opinione pubblica ha incoraggiato una visione secondo cui la moderazione e gli strumenti diplomatici avrebbero evitato un’altra crisi simile a quella del 1914. Nel frattempo, regimi autoritari in Germania, Italia e Giappone hanno ampliato la produzione di armamenti, rivisto la dottrina operativa e integrato nuove tecnologie nelle loro forze armate.

Il risultato è stato un evidente squilibrio tra le intenzioni delle società democratiche e le capacità degli stati revisionisti. Quando la guerra è scoppiata nel 1939, le democrazie possedevano argomentazioni legali ed etiche a favore della pace, mentre i loro avversari avevano trascorso un decennio preparando un conflitto industrializzato. L’astensione dagli armamenti non ha portato stabilità, ma ha abbassato il costo dell’aggressione per coloro che erano pronti ad usare la forza e ha aumentato il prezzo della resistenza.

Il dilemma moderno dell’IA

Le democrazie ora affrontano una versione moderna di questo dilemma in relazione all’intelligenza artificiale. Il ritmo dello sviluppo dei sistemi militari abilitati dall’IA è accelerato negli ultimi due decenni. Da quando il drone da combattimento Wing Loong-1 è entrato in servizio nel 2009, la Cina ha supervisionato un’espansione costante delle piattaforme aeree e marittime autonome e semi-autonome. Mosca, nel frattempo, ha articolato gli interessi in termini diretti, affermando che l’intelligenza artificiale è il futuro non solo per la Russia, ma per l’interumanità. La chiusura di questa affermazione rivela una prospettiva geopolitica in cui la superiorità dell’IA supporta la leadership globale.

Un primo tentativo di stabilire norme condivise ha avuto luogo nel 2024, quando 90 governi hanno partecipato al summit sull’IA responsabile nel dominio militare. Circa 60 stati hanno approvato una bozza intesa a guidare l’uso responsabile dell’IA sul campo di battaglia. Di questi, 30 hanno rifiutato di adottare il documento, inclusa la Cina. Questo schema riflette tentativi precedenti di regolamentazione degli armamenti, in cui gli stati democratici cercavano vincoli legali e responsabilità, mentre gli stati autoritari cercavano libertà di manovra.

Implicazioni e rischi

Le questioni etiche si inseriscono in un quadro strategico più ampio in cui l’astensione comporta costi e rischi. Un modo strutturato per esaminare la dimensione etica di questa transizione è rappresentato dalla tradizione della Guerra Giusta. Da Cicerone nella tarda Repubblica Romana attraverso Agostino e Tommaso d’Aquino, questa tradizione ha sviluppato metodi per conciliare i doveri morali con la realtà pratica del conflitto armato.

Tre principi continuano a guidare l’analisi contemporanea: Jus ad Bellum, che concerne la giustizia di andare in guerra; Jus in Bello, che concerne la giustizia della condotta durante la guerra; e Jus post Bellum, che riguarda la giustizia dopo la cessazione delle ostilità.

La giustizia dopo il conflitto richiede informazioni e l’IA aumenta sia la quantità che la velocità delle informazioni rilevanti. La discussione pubblica ha iniziato a confrontarsi con queste questioni, rivelando un crescente riconoscimento che l’IA è già integrata in molti sistemi civili e umanitari.

Il ruolo umano

Una preoccupazione persistente riguarda il ruolo dell’umano. La dottrina militare distingue ora tra tre modelli. Nel modello umano nel ciclo, gli esseri umani approvano o negano azioni letali o di targeting. Nel modello umano sopra il ciclo, i sistemi autonomi svolgono compiti, ma gli esseri umani supervisionano e possono intervenire. Infine, nel modello umano fuori dal ciclo, l’IA gestisce logistiche e manipolazioni di dati di routine.

La lezione storica più ampia descrive uno schema ricorrente in cui le società democratiche non possono fare affidamento sulla moderazione morale quando altri attori cercano vantaggi attraverso l’innovazione tecnologica. La risposta più eticamente responsabile per gli stati democratici è garantire che lo sviluppo dell’IA si conformi al diritto internazionale, preservi la responsabilità umana e rispetti gli standard umanitari.

L’alternativa sarebbe un mondo in cui le società che valorizzano i diritti umani e la moderazione legale rimangono indietro rispetto a quelle che non lo fanno, creando un ambiente geopolitico plasmato dalla coercizione piuttosto che dalla legge.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...