Opportunità mancate per l’AI: il G7 e la governance globale

Il Vertice del G7 e le Opportunità Mancate per la Governance Globale dell’IA

Il vertice del G7, tenutosi ad Alberta, Canada, ha affrontato importanti sviluppi geopolitici, ma ha trascurato un tema cruciale: la governance dei modelli e dei sistemi di intelligenza artificiale (IA). Questo è un’assenza notevole, considerando che il G7 ha precedentemente guidato le linee guida volontarie che le aziende di IA hanno accettato di seguire attraverso il Processo di Hiroshima sull’IA.

Un Cambiamento di Paradigma nella Governance dell’IA

Negli ultimi anni, la sicurezza dell’IA era al centro dell’attenzione, con iniziative come la Dichiarazione di Bletchley Park del Regno Unito, l’Atto sull’IA dell’Unione Europea e impegni volontari sulla sicurezza da parte delle aziende leader nel settore. Tuttavia, quest’anno ha segnato un cambiamento verso l’innovazione, la sovranità e la competizione tecnologica.

Recentemente, la proposta di Direttiva sulla Responsabilità dell’IA è stata ritirata dall’UE, mentre il Regno Unito e gli Stati Uniti hanno ridefinito i loro istituti di sicurezza dell’IA. Inoltre, gli Stati Uniti hanno abbandonato il loro quadro di gestione del rischio dell’IA, separando il mondo in tre categorie di riceventi di chip.

Il Documento Finale del Vertice del G7

Il documento principale prodotto dal vertice, la “Dichiarazione dei leader sull’IA per la prosperità”, enfatizza le opportunità economiche condivise, utilizzando frequentemente termini come “crescita”, “prosperità” e “competitività”. Le iniziative principali includono una “Grand Challenge di GovAI” e una Roadmap per l’adozione dell’IA per le piccole e medie imprese.

Un accordo bilaterale tra Canada e Regno Unito prevede una partnership con l’ente canadese di sicurezza dell’IA e un memorandum d’intesa con l’azienda canadese Cohere.

Le Sfide della Governance dell’IA

La rapida evoluzione delle capacità dell’IA potrebbe spiegare il ritiro generale dalla governance. Modelli come GPT-4.5 e Claude Opus 4 possiedono capacità di ragionamento che sembravano incomprensibili solo due anni fa. Le recenti scoperte mostrano che gli agenti autonomi generali dell’IA raddoppiano la lunghezza dei compiti che possono gestire circa ogni sette mesi.

Inoltre, l’espansione dell’infrastruttura necessaria è significativa, con centri dati di gigawatt che sorgono in tutto il mondo. La RAND Corporation ha stimato che i centri dati dell’IA potrebbero necessitare di 10 GW di capacità energetica aggiuntiva quest’anno, salendo a 68 GW entro il 2027.

Politiche Nazionali vs. Approcci Multilaterali

Questo spostamento verso politiche nazionali sull’IA, come il Piano d’Azione sulle Opportunità dell’IA del Regno Unito e il Piano d’Azione sull’IA degli Stati Uniti, potrebbe ignorare le sinergie tra alleati che potrebbero garantire che la tecnologia stessa sia sicura e protetta.

Le stesse capacità dell’IA che promettono innovazioni positive in medicina, robotica ed educazione presentano anche rischi che nessuna nazione del G7 può gestire da sola. Le sfide di sicurezza emergenti dall’IA avanzata includono modelli rubati e centri dati vulnerabili a attacchi informatici e fisici.

Cooperazione e Sicurezza nell’IA

Le nazioni del G7, controllando la catena del valore dell’IA, sono ben posizionate per affrontare queste sfide attraverso l’azione coordinata. La collaborazione nella ricerca sulle capacità dell’IA, i processi di divulgazione coordinati e lo sviluppo collaborativo di controlli all’esportazione sono solo alcune delle aree dove la cooperazione potrebbe risultare vantaggiosa per tutti.

In un’era in cui i sistemi di IA altamente capaci possono essere addestrati in un paese, distribuiti in un altro e potenzialmente causare danni in un terzo, gli approcci puramente nazionali alla governance dell’IA potrebbero avere difficoltà a gestire i rischi transfrontalieri.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...