Opportunità mancate per l’AI: il G7 e la governance globale

Il Vertice del G7 e le Opportunità Mancate per la Governance Globale dell’IA

Il vertice del G7, tenutosi ad Alberta, Canada, ha affrontato importanti sviluppi geopolitici, ma ha trascurato un tema cruciale: la governance dei modelli e dei sistemi di intelligenza artificiale (IA). Questo è un’assenza notevole, considerando che il G7 ha precedentemente guidato le linee guida volontarie che le aziende di IA hanno accettato di seguire attraverso il Processo di Hiroshima sull’IA.

Un Cambiamento di Paradigma nella Governance dell’IA

Negli ultimi anni, la sicurezza dell’IA era al centro dell’attenzione, con iniziative come la Dichiarazione di Bletchley Park del Regno Unito, l’Atto sull’IA dell’Unione Europea e impegni volontari sulla sicurezza da parte delle aziende leader nel settore. Tuttavia, quest’anno ha segnato un cambiamento verso l’innovazione, la sovranità e la competizione tecnologica.

Recentemente, la proposta di Direttiva sulla Responsabilità dell’IA è stata ritirata dall’UE, mentre il Regno Unito e gli Stati Uniti hanno ridefinito i loro istituti di sicurezza dell’IA. Inoltre, gli Stati Uniti hanno abbandonato il loro quadro di gestione del rischio dell’IA, separando il mondo in tre categorie di riceventi di chip.

Il Documento Finale del Vertice del G7

Il documento principale prodotto dal vertice, la “Dichiarazione dei leader sull’IA per la prosperità”, enfatizza le opportunità economiche condivise, utilizzando frequentemente termini come “crescita”, “prosperità” e “competitività”. Le iniziative principali includono una “Grand Challenge di GovAI” e una Roadmap per l’adozione dell’IA per le piccole e medie imprese.

Un accordo bilaterale tra Canada e Regno Unito prevede una partnership con l’ente canadese di sicurezza dell’IA e un memorandum d’intesa con l’azienda canadese Cohere.

Le Sfide della Governance dell’IA

La rapida evoluzione delle capacità dell’IA potrebbe spiegare il ritiro generale dalla governance. Modelli come GPT-4.5 e Claude Opus 4 possiedono capacità di ragionamento che sembravano incomprensibili solo due anni fa. Le recenti scoperte mostrano che gli agenti autonomi generali dell’IA raddoppiano la lunghezza dei compiti che possono gestire circa ogni sette mesi.

Inoltre, l’espansione dell’infrastruttura necessaria è significativa, con centri dati di gigawatt che sorgono in tutto il mondo. La RAND Corporation ha stimato che i centri dati dell’IA potrebbero necessitare di 10 GW di capacità energetica aggiuntiva quest’anno, salendo a 68 GW entro il 2027.

Politiche Nazionali vs. Approcci Multilaterali

Questo spostamento verso politiche nazionali sull’IA, come il Piano d’Azione sulle Opportunità dell’IA del Regno Unito e il Piano d’Azione sull’IA degli Stati Uniti, potrebbe ignorare le sinergie tra alleati che potrebbero garantire che la tecnologia stessa sia sicura e protetta.

Le stesse capacità dell’IA che promettono innovazioni positive in medicina, robotica ed educazione presentano anche rischi che nessuna nazione del G7 può gestire da sola. Le sfide di sicurezza emergenti dall’IA avanzata includono modelli rubati e centri dati vulnerabili a attacchi informatici e fisici.

Cooperazione e Sicurezza nell’IA

Le nazioni del G7, controllando la catena del valore dell’IA, sono ben posizionate per affrontare queste sfide attraverso l’azione coordinata. La collaborazione nella ricerca sulle capacità dell’IA, i processi di divulgazione coordinati e lo sviluppo collaborativo di controlli all’esportazione sono solo alcune delle aree dove la cooperazione potrebbe risultare vantaggiosa per tutti.

In un’era in cui i sistemi di IA altamente capaci possono essere addestrati in un paese, distribuiti in un altro e potenzialmente causare danni in un terzo, gli approcci puramente nazionali alla governance dell’IA potrebbero avere difficoltà a gestire i rischi transfrontalieri.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...