Opportunità mancate per l’AI: il G7 e la governance globale

Il Vertice del G7 e le Opportunità Mancate per la Governance Globale dell’IA

Il vertice del G7, tenutosi ad Alberta, Canada, ha affrontato importanti sviluppi geopolitici, ma ha trascurato un tema cruciale: la governance dei modelli e dei sistemi di intelligenza artificiale (IA). Questo è un’assenza notevole, considerando che il G7 ha precedentemente guidato le linee guida volontarie che le aziende di IA hanno accettato di seguire attraverso il Processo di Hiroshima sull’IA.

Un Cambiamento di Paradigma nella Governance dell’IA

Negli ultimi anni, la sicurezza dell’IA era al centro dell’attenzione, con iniziative come la Dichiarazione di Bletchley Park del Regno Unito, l’Atto sull’IA dell’Unione Europea e impegni volontari sulla sicurezza da parte delle aziende leader nel settore. Tuttavia, quest’anno ha segnato un cambiamento verso l’innovazione, la sovranità e la competizione tecnologica.

Recentemente, la proposta di Direttiva sulla Responsabilità dell’IA è stata ritirata dall’UE, mentre il Regno Unito e gli Stati Uniti hanno ridefinito i loro istituti di sicurezza dell’IA. Inoltre, gli Stati Uniti hanno abbandonato il loro quadro di gestione del rischio dell’IA, separando il mondo in tre categorie di riceventi di chip.

Il Documento Finale del Vertice del G7

Il documento principale prodotto dal vertice, la “Dichiarazione dei leader sull’IA per la prosperità”, enfatizza le opportunità economiche condivise, utilizzando frequentemente termini come “crescita”, “prosperità” e “competitività”. Le iniziative principali includono una “Grand Challenge di GovAI” e una Roadmap per l’adozione dell’IA per le piccole e medie imprese.

Un accordo bilaterale tra Canada e Regno Unito prevede una partnership con l’ente canadese di sicurezza dell’IA e un memorandum d’intesa con l’azienda canadese Cohere.

Le Sfide della Governance dell’IA

La rapida evoluzione delle capacità dell’IA potrebbe spiegare il ritiro generale dalla governance. Modelli come GPT-4.5 e Claude Opus 4 possiedono capacità di ragionamento che sembravano incomprensibili solo due anni fa. Le recenti scoperte mostrano che gli agenti autonomi generali dell’IA raddoppiano la lunghezza dei compiti che possono gestire circa ogni sette mesi.

Inoltre, l’espansione dell’infrastruttura necessaria è significativa, con centri dati di gigawatt che sorgono in tutto il mondo. La RAND Corporation ha stimato che i centri dati dell’IA potrebbero necessitare di 10 GW di capacità energetica aggiuntiva quest’anno, salendo a 68 GW entro il 2027.

Politiche Nazionali vs. Approcci Multilaterali

Questo spostamento verso politiche nazionali sull’IA, come il Piano d’Azione sulle Opportunità dell’IA del Regno Unito e il Piano d’Azione sull’IA degli Stati Uniti, potrebbe ignorare le sinergie tra alleati che potrebbero garantire che la tecnologia stessa sia sicura e protetta.

Le stesse capacità dell’IA che promettono innovazioni positive in medicina, robotica ed educazione presentano anche rischi che nessuna nazione del G7 può gestire da sola. Le sfide di sicurezza emergenti dall’IA avanzata includono modelli rubati e centri dati vulnerabili a attacchi informatici e fisici.

Cooperazione e Sicurezza nell’IA

Le nazioni del G7, controllando la catena del valore dell’IA, sono ben posizionate per affrontare queste sfide attraverso l’azione coordinata. La collaborazione nella ricerca sulle capacità dell’IA, i processi di divulgazione coordinati e lo sviluppo collaborativo di controlli all’esportazione sono solo alcune delle aree dove la cooperazione potrebbe risultare vantaggiosa per tutti.

In un’era in cui i sistemi di IA altamente capaci possono essere addestrati in un paese, distribuiti in un altro e potenzialmente causare danni in un terzo, gli approcci puramente nazionali alla governance dell’IA potrebbero avere difficoltà a gestire i rischi transfrontalieri.

More Insights

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

L’intelligenza artificiale come co-pilota del governo

La UAE ha annunciato che un Sistema Nazionale di Intelligenza Artificiale diventerà un membro non votante di tutte le federazioni e delle aziende governative, iniziando il prossimo anno. Questa...

Codice di condotta per le aziende: prepararsi alle nuove regole sull’IA

Un codice di condotta progettato per aiutare le aziende a conformarsi alle norme sull'intelligenza artificiale dell'Unione Europea potrebbe entrare in vigore solo alla fine del 2025. La Commissione...

Crisi dell’Intelligenza Artificiale: Il Fallimento delle Aziende

L'intelligenza artificiale ha raggiunto un punto di svolta, ma la maggior parte delle iniziative AI non arriva mai alla produzione, esponendo le organizzazioni a rischi invisibili. Senza un'adeguata...

Periodo di grazia per la conformità all’AI Code

La commissione sta considerando di offrire un periodo di grazia alle aziende che firmano il codice di conformità sull'IA. Questa decisione potrebbe influenzare notevolmente le pratiche aziendali nel...

Texas e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Il 22 giugno 2025, il Texas è diventato l'ultimo stato ad approvare una legislazione completa sull'IA con il passaggio del Texas Responsible Artificial Intelligence Governance Act. Questa nuova legge...

Texas e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Il 22 giugno 2025, il Texas è diventato l'ultimo stato ad approvare una legislazione completa sull'IA con il passaggio del Texas Responsible Artificial Intelligence Governance Act. Questa nuova legge...

Leggi contro i deepfake in Europa: cosa sapere

La Danimarca ha deciso di concedere alle persone i diritti d'autore sulla propria immagine per combattere i video "deepfake". Altri paesi europei stanno adottando leggi simili per affrontare l'aumento...

Intelligenza Artificiale: Un Futuro Responsabile e Sostenibile

Il governo federale desidera potenziare la produttività lanciando l'intelligenza artificiale (IA) "su larga scala". Tuttavia, senza un'implementazione riflessiva e una leadership esperta in IA...