Potere di Calcolo e Governance dell’IA
Il potere di calcolo, noto come compute, è un fattore chiave nel progresso dell’intelligenza artificiale (IA). Negli ultimi tredici anni, la quantità di compute utilizzata per addestrare i principali sistemi di IA è aumentata di un fattore di 350 milioni. Questa crescita ha consentito i significativi avanzamenti nell’IA che hanno recentemente attirato l’attenzione globale.
Governance del Compute
I governi stanno iniziando a impegnarsi nella governance del compute, utilizzando il potere di calcolo come leva per perseguire obiettivi di politica dell’IA, come limitare i rischi di abuso, supportare le industrie nazionali e competere a livello geopolitico.
Ci sono almeno tre modi in cui il compute può essere utilizzato per governare l’IA:
- Monitoraggio del compute per ottenere visibilità nello sviluppo e nell’uso dell’IA.
- Sussidi o limitazioni nell’accesso al compute per modellare l’allocazione delle risorse nei progetti di IA.
- Monitoraggio delle attività, limitazione dell’accesso o creazione di “guardrail” nell’hardware per far rispettare le regole.
La governance del compute è un approccio particolarmente importante alla governance dell’IA perché è fattibile. Il compute è rilevabile: l’addestramento di sistemi di IA avanzati richiede migliaia di chip specializzati, non facilmente acquisibili in modo discreto. È escludibile: i chip di IA, essendo beni fisici, possono essere dati o tolti a soggetti specifici. Inoltre, è quantificabile: le caratteristiche dei chip e il loro utilizzo possono essere misurati.
Rischi e Benefici della Governance del Compute
Nonostante il compute possa essere utilizzato come strumento per governare l’IA, ciò non significa che debba essere utilizzato in tutti i casi. La governance del compute ha potenziali benefici, ma presenta anche rischi significativi, come l’invasione dei diritti civili e la perpetuazione delle strutture di potere esistenti.
Il documento sottolinea che la governance del compute è un nodo promettente per la governance dell’IA e offre suggerimenti su come mitigare i rischi associati.
Il Ruolo Cruciale del Compute nell’IA
Gran parte dei progressi dell’IA negli ultimi dieci anni è stato il risultato di significativi aumenti nella quantità di potere di calcolo utilizzato per addestrare e far funzionare i modelli di IA. Le scoperte più importanti si sono verificate quando gli sviluppatori hanno sfruttato enormi quantità di potere di calcolo per addestrare modelli su vasti set di dati.
Negli ultimi anni, il potere di calcolo utilizzato per addestrare sistemi di IA è raddoppiato ogni sei mesi, con il fatturato dei data center di Nvidia che è quasi quadruplicato.
Governance del Compute: Obiettivi e Meccanismi
La governance del compute può supportare tre tipi di obiettivi di governance dell’IA:
- Aumentare la visibilità nello sviluppo e nell’implementazione dell’IA.
- Allocare risorse di IA verso scopi più desiderabili.
- Far rispettare le regole relative allo sviluppo e all’implementazione dell’IA.
La visibilità consente di comprendere quali attori utilizzano, sviluppano e implementano IA intensiva in termini di calcolo. L’allocazione delle risorse può essere utilizzata per promuovere lo sviluppo di tecnologie benefiche, mentre l’applicazione di sanzioni può affrontare le violazioni delle norme relative all’IA.
Limitazioni e Rischi della Governance del Compute
Nonostante la governance del compute possa essere uno strumento efficace, potrebbe non essere sempre la soluzione migliore. Con il miglioramento degli algoritmi e dell’hardware, l’efficacia della governance del compute potrebbe diminuire.
Inoltre, misure intrusive di governance del compute potrebbero violare le libertà civili e rafforzare i regimi autoritari. Alcuni sforzi di governance del compute possono aumentare il rischio di fuga di dati sensibili.
Conclusione
Le iniziative di governance del compute sono già in corso e il compute continuerà a svolgere un ruolo centrale nell’ecosistema dell’IA. È fondamentale progettare misure di governance del compute in modo che siano efficaci e non comportino danni indesiderati. L’equilibrio tra visibilità, allocazione e rispetto delle regole è cruciale per un futuro dell’IA responsabile e sicuro.