Governance dell’IA nel Contesto Militare
Circa un terzo dei paesi partecipanti a un summit militare sull’IA ha concordato una dichiarazione su come governare l’uso della tecnologia in guerra, ma le potenze militari Cina e Stati Uniti hanno scelto di non firmare.
Preoccupazioni sull’IA in guerra
Le tensioni nelle relazioni tra gli Stati Uniti e i loro alleati europei, insieme all’incertezza su come appariranno i legami transatlantici nei prossimi mesi e anni, hanno reso alcuni paesi riluttanti a firmare accordi comuni. La dichiarazione sottolinea la crescente preoccupazione di alcuni governi che i rapidi progressi nell’intelligenza artificiale possano superare le regole relative al suo utilizzo militare, aumentando il rischio di incidenti o escalation involontaria.
Impegni dei firmatari
I governi si trovano di fronte a un “dilemma del prigioniero”, divisi tra l’implementazione di restrizioni responsabili e la volontà di non limitarsi rispetto ai propri avversari. “Russia e Cina si stanno muovendo molto velocemente, il che crea urgenza per fare progressi nello sviluppo dell’IA”, ha affermato un ministro della difesa. “Ma vedere un progresso rapido aumenta anche l’urgenza di continuare a lavorare sul suo uso responsabile. I due aspetti devono andare di pari passo.”
Solo 35 paesi su 85 partecipanti al summit hanno firmato un impegno su 20 principi riguardanti l’IA. Questi includono l’affermazione della responsabilità umana sulle armi alimentate dall’IA, la promozione di catene di comando chiare e la condivisione di informazioni sui dispositivi di supervisione nazionale, “dove compatibile con la sicurezza nazionale”.
Conclusione
Il documento ha anche evidenziato l’importanza delle valutazioni dei rischi, di test robusti e della formazione per il personale che opera con le capacità militari dell’IA. A differenza dei summit precedenti, questo documento non era vincolante, ma alcuni firmatari si sono sentiti a disagio nell’approvare politiche più concrete.