Il Vertice del G7 e le Opportunità Mancate per la Governance Globale dell’IA
Il vertice del G7, tenutosi ad Alberta, Canada, ha affrontato importanti sviluppi geopolitici, ma ha trascurato un tema cruciale: la governance dei modelli e dei sistemi di intelligenza artificiale (IA). Questo è un’assenza notevole, considerando che il G7 ha precedentemente guidato le linee guida volontarie che le aziende di IA hanno accettato di seguire attraverso il Processo di Hiroshima sull’IA.
Un Cambiamento di Paradigma nella Governance dell’IA
Negli ultimi anni, la sicurezza dell’IA era al centro dell’attenzione, con iniziative come la Dichiarazione di Bletchley Park del Regno Unito, l’Atto sull’IA dell’Unione Europea e impegni volontari sulla sicurezza da parte delle aziende leader nel settore. Tuttavia, quest’anno ha segnato un cambiamento verso l’innovazione, la sovranità e la competizione tecnologica.
Recentemente, la proposta di Direttiva sulla Responsabilità dell’IA è stata ritirata dall’UE, mentre il Regno Unito e gli Stati Uniti hanno ridefinito i loro istituti di sicurezza dell’IA. Inoltre, gli Stati Uniti hanno abbandonato il loro quadro di gestione del rischio dell’IA, separando il mondo in tre categorie di riceventi di chip.
Il Documento Finale del Vertice del G7
Il documento principale prodotto dal vertice, la “Dichiarazione dei leader sull’IA per la prosperità”, enfatizza le opportunità economiche condivise, utilizzando frequentemente termini come “crescita”, “prosperità” e “competitività”. Le iniziative principali includono una “Grand Challenge di GovAI” e una Roadmap per l’adozione dell’IA per le piccole e medie imprese.
Un accordo bilaterale tra Canada e Regno Unito prevede una partnership con l’ente canadese di sicurezza dell’IA e un memorandum d’intesa con l’azienda canadese Cohere.
Le Sfide della Governance dell’IA
La rapida evoluzione delle capacità dell’IA potrebbe spiegare il ritiro generale dalla governance. Modelli come GPT-4.5 e Claude Opus 4 possiedono capacità di ragionamento che sembravano incomprensibili solo due anni fa. Le recenti scoperte mostrano che gli agenti autonomi generali dell’IA raddoppiano la lunghezza dei compiti che possono gestire circa ogni sette mesi.
Inoltre, l’espansione dell’infrastruttura necessaria è significativa, con centri dati di gigawatt che sorgono in tutto il mondo. La RAND Corporation ha stimato che i centri dati dell’IA potrebbero necessitare di 10 GW di capacità energetica aggiuntiva quest’anno, salendo a 68 GW entro il 2027.
Politiche Nazionali vs. Approcci Multilaterali
Questo spostamento verso politiche nazionali sull’IA, come il Piano d’Azione sulle Opportunità dell’IA del Regno Unito e il Piano d’Azione sull’IA degli Stati Uniti, potrebbe ignorare le sinergie tra alleati che potrebbero garantire che la tecnologia stessa sia sicura e protetta.
Le stesse capacità dell’IA che promettono innovazioni positive in medicina, robotica ed educazione presentano anche rischi che nessuna nazione del G7 può gestire da sola. Le sfide di sicurezza emergenti dall’IA avanzata includono modelli rubati e centri dati vulnerabili a attacchi informatici e fisici.
Cooperazione e Sicurezza nell’IA
Le nazioni del G7, controllando la catena del valore dell’IA, sono ben posizionate per affrontare queste sfide attraverso l’azione coordinata. La collaborazione nella ricerca sulle capacità dell’IA, i processi di divulgazione coordinati e lo sviluppo collaborativo di controlli all’esportazione sono solo alcune delle aree dove la cooperazione potrebbe risultare vantaggiosa per tutti.
In un’era in cui i sistemi di IA altamente capaci possono essere addestrati in un paese, distribuiti in un altro e potenzialmente causare danni in un terzo, gli approcci puramente nazionali alla governance dell’IA potrebbero avere difficoltà a gestire i rischi transfrontalieri.