Opportunità mancate per l’AI: il G7 e la governance globale

Il Vertice del G7 e le Opportunità Mancate per la Governance Globale dell’IA

Il vertice del G7, tenutosi ad Alberta, Canada, ha affrontato importanti sviluppi geopolitici, ma ha trascurato un tema cruciale: la governance dei modelli e dei sistemi di intelligenza artificiale (IA). Questo è un’assenza notevole, considerando che il G7 ha precedentemente guidato le linee guida volontarie che le aziende di IA hanno accettato di seguire attraverso il Processo di Hiroshima sull’IA.

Un Cambiamento di Paradigma nella Governance dell’IA

Negli ultimi anni, la sicurezza dell’IA era al centro dell’attenzione, con iniziative come la Dichiarazione di Bletchley Park del Regno Unito, l’Atto sull’IA dell’Unione Europea e impegni volontari sulla sicurezza da parte delle aziende leader nel settore. Tuttavia, quest’anno ha segnato un cambiamento verso l’innovazione, la sovranità e la competizione tecnologica.

Recentemente, la proposta di Direttiva sulla Responsabilità dell’IA è stata ritirata dall’UE, mentre il Regno Unito e gli Stati Uniti hanno ridefinito i loro istituti di sicurezza dell’IA. Inoltre, gli Stati Uniti hanno abbandonato il loro quadro di gestione del rischio dell’IA, separando il mondo in tre categorie di riceventi di chip.

Il Documento Finale del Vertice del G7

Il documento principale prodotto dal vertice, la “Dichiarazione dei leader sull’IA per la prosperità”, enfatizza le opportunità economiche condivise, utilizzando frequentemente termini come “crescita”, “prosperità” e “competitività”. Le iniziative principali includono una “Grand Challenge di GovAI” e una Roadmap per l’adozione dell’IA per le piccole e medie imprese.

Un accordo bilaterale tra Canada e Regno Unito prevede una partnership con l’ente canadese di sicurezza dell’IA e un memorandum d’intesa con l’azienda canadese Cohere.

Le Sfide della Governance dell’IA

La rapida evoluzione delle capacità dell’IA potrebbe spiegare il ritiro generale dalla governance. Modelli come GPT-4.5 e Claude Opus 4 possiedono capacità di ragionamento che sembravano incomprensibili solo due anni fa. Le recenti scoperte mostrano che gli agenti autonomi generali dell’IA raddoppiano la lunghezza dei compiti che possono gestire circa ogni sette mesi.

Inoltre, l’espansione dell’infrastruttura necessaria è significativa, con centri dati di gigawatt che sorgono in tutto il mondo. La RAND Corporation ha stimato che i centri dati dell’IA potrebbero necessitare di 10 GW di capacità energetica aggiuntiva quest’anno, salendo a 68 GW entro il 2027.

Politiche Nazionali vs. Approcci Multilaterali

Questo spostamento verso politiche nazionali sull’IA, come il Piano d’Azione sulle Opportunità dell’IA del Regno Unito e il Piano d’Azione sull’IA degli Stati Uniti, potrebbe ignorare le sinergie tra alleati che potrebbero garantire che la tecnologia stessa sia sicura e protetta.

Le stesse capacità dell’IA che promettono innovazioni positive in medicina, robotica ed educazione presentano anche rischi che nessuna nazione del G7 può gestire da sola. Le sfide di sicurezza emergenti dall’IA avanzata includono modelli rubati e centri dati vulnerabili a attacchi informatici e fisici.

Cooperazione e Sicurezza nell’IA

Le nazioni del G7, controllando la catena del valore dell’IA, sono ben posizionate per affrontare queste sfide attraverso l’azione coordinata. La collaborazione nella ricerca sulle capacità dell’IA, i processi di divulgazione coordinati e lo sviluppo collaborativo di controlli all’esportazione sono solo alcune delle aree dove la cooperazione potrebbe risultare vantaggiosa per tutti.

In un’era in cui i sistemi di IA altamente capaci possono essere addestrati in un paese, distribuiti in un altro e potenzialmente causare danni in un terzo, gli approcci puramente nazionali alla governance dell’IA potrebbero avere difficoltà a gestire i rischi transfrontalieri.

More Insights

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Sicurezza: Affrontare la Nuova Era delle Minacce

Le organizzazioni devono affrontare una nuova realtà: l'IA sta rapidamente rimodellando il panorama delle minacce informatiche. Mentre l'IA aiuta a migliorare la rilevazione e la risposta, porta anche...

Governare l’Intelligenza Artificiale: Verso un Futuro Sostenibile

La Thailandia ha redatto principi per la legislazione sull'intelligenza artificiale (AI), mirando a stabilire un ecosistema AI e ad ampliare l'adozione. La nuova legge dovrebbe fornire protezione agli...

Leggi Texane per una Governance Responsabile dell’Intelligenza Artificiale in Sanità

Il Texas ha adottato leggi complete sulla governance dell'intelligenza artificiale con disposizioni specifiche per il settore sanitario, inclusa la legge HB 149. Questa legge stabilisce un quadro per...

Intelligenza Artificiale: Garanzia di Allineamento e Governance

Gillian K. Hadfield è stata nominata Professore Distinto Bloomberg di Allineamento e Governance dell'IA presso la Johns Hopkins University. È riconosciuta a livello internazionale per la sua ricerca...

Il lato oscuro della pornografia con cambio di volto

Con l'evoluzione della tecnologia AI, gli strumenti di face swap vengono sempre più sfruttati in modo dannoso, in particolare nella pornografia con scambi di volto. Questo articolo esplora le...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Governanza Etica e Inclusiva dell’AI in Indonesia

Il Ministero della Comunicazione e del Digitale dell'Indonesia ha ribadito il proprio impegno a integrare principi etici e di inclusione nelle proprie politiche sull'intelligenza artificiale (AI). Il...