Etica della guerra: il conflitto tra Anthropic e il Pentagono nell’era dell’IA

Il conflitto tra Anthropic e il Pentagono durante la guerra in Iran mette in discussione l’etica della guerra con AI

(OSV News) — Mentre il fumo si alzava dalle rovine e i soccorritori estraevano 175 corpi dalle macerie della scuola elementare di Shajarah-Tayyebeh in Iran, il 28 febbraio, sono iniziate le domande su come questo potesse essere accaduto nelle prime ore della guerra tra Stati Uniti e Israele contro l’Iran.

Rapporti preliminari suggeriscono che la scuola sia stata scambiata per un sito militare a causa di informazioni umane obsoleti quando è stata colpita da un missile da crociera Tomahawk statunitense. Tuttavia, l’incidente ha anche attirato l’attenzione sul complesso intreccio tra l’uso dell’intelligenza artificiale generativa per l’elaborazione di mass data in potenziali obiettivi militari, identificati e classificati per l’approvazione da parte di revisori umani.

La “prima guerra AI”

In quello che alcuni commentatori definiscono “la prima guerra AI” — il conflitto attuale tra Stati Uniti, Israele e Iran — emergono numerose considerazioni etiche, sia vecchie che nuove. Ma molte di esse ruotano attorno alla stessa preoccupazione: l’AI non dovrebbe essere lasciata a se stessa.

Tuttavia, il 27 febbraio, alla vigilia dell’Operazione Epic Fury, il presidente ha diretto le agenzie governative a non lavorare più con il gigante tecnologico Anthropic, a causa di una differenza critica di opinioni sull’uso accettabile della sua tecnologia da parte del Dipartimento della Difesa. In risposta, Anthropic ha intentato causa contro il Pentagono il 9 marzo.

Il CEO di Anthropic ha affermato che in alcuni casi l’AI può minare, piuttosto che difendere, i valori democratici, sostenendo che alcuni usi sono semplicemente al di fuori dei limiti di ciò che la tecnologia attuale può fare in modo sicuro e affidabile.

Considerazioni etiche e morali

Un gruppo di 14 teologi morali cattolici ha presentato un documento di supporto a favore di Anthropic, notando che le obiezioni di Anthropic all’uso dell’AI per la sorveglianza di massa degli americani sono “allineate” con l’insegnamento cattolico sulla privacy. Hanno sostenuto che le armi letali autonome oscurano problematicamente l’agenzia umana, spostando pericolosamente la responsabilità dai decisori umani alle macchine.

Alcuni legislatori democratici hanno espresso preoccupazione riguardo ai rapporti che indicano come gli attacchi statunitensi e israeliani in Iran abbiano colpito scuole, ospedali e altri spazi pubblici. Hanno chiesto quale ruolo stesse giocando l’AI nella selezione degli obiettivi e nella valutazione delle informazioni, e a che punto fosse soggetta a revisione umana per la verifica.

Implicazioni della guerra AI

Le questioni etiche della guerra sono storicamente state protette da regole di ingaggio e supervisione rigorosa. Tuttavia, ci sono preoccupazioni riguardo all’approccio dell’amministrazione attuale su come viene condotta la guerra. I funzionari hanno affermato di non voler alcun freno sull’AI.

Osservatori hanno espresso preoccupazioni riguardo alla mancanza di controlli morali sulla tecnologia. Si è discusso se le istituzioni più grandi, come lo stato, debbano sopraffare le più piccole, come le aziende, nel determinare i valori che guidano l’uso dell’AI.

Conclusione

È fondamentale che l’uso dell’AI in contesti di guerra sia guidato da considerazioni morali e legali, con un’agenzia umana sempre presente nel processo decisionale. Deumanizzare la guerra potrebbe rendere troppo facile l’uso della forza letale, portando a conseguenze sproporzionate che devono essere attentamente monitorate.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...