Regolamentare l’IA potrebbe cambiare chi vince la corsa all’IA
Un nuovo studio economico sostiene che il pensiero regolamentare esistente è poco adatto alla struttura emergente dell’industria dell’IA, dove i potenti sviluppatori di modelli di base e le aziende applicative operano all’interno di una catena di approvvigionamento strettamente interconnessa. La ricerca evidenzia come le decisioni politiche che influenzano la concorrenza, le risorse di calcolo e le dinamiche dei prezzi possano plasmare non solo i profitti aziendali, ma anche il benessere dei consumatori.
La crescente economia della catena di approvvigionamento dell’IA
Lo sviluppo dell’IA si concentra sempre più sui modelli di base, enormi reti neurali addestrate su enormi set di dati che possono svolgere una vasta gamma di compiti, tra cui l’elaborazione del linguaggio naturale e il ragionamento logico. Questi modelli formano la spina dorsale tecnologica dei prodotti moderni di IA, ma sono estremamente costosi da sviluppare e mantenere. L’addestramento di un modello della scala di GPT-4 può costare oltre 100 milioni di dollari, rendendo impraticabile per la maggior parte delle organizzazioni costruire i propri modelli.
Per via di questi costi elevati, l’industria dell’IA si è evoluta in una catena di approvvigionamento strutturata verticalmente. In questo ecosistema, grandi aziende tecnologiche costruiscono e mantengono modelli di base, mentre le aziende downstream li adattano per applicazioni specializzate come strumenti di ricerca legale, assistenti medici o sistemi di analisi finanziaria.
Meccanismi e costi della catena di approvvigionamento
Il meccanismo chiave che consente questa struttura è il fine-tuning, un processo attraverso il quale le aziende downstream riaddestrano un modello di base utilizzando dati specifici del settore. Questo passaggio consente alle aziende di personalizzare sistemi di IA di uso generale per soddisfare le esigenze di industrie o compiti specifici. Sebbene il pre-addestramento del modello richieda enormi risorse computazionali, il fine-tuning richiede tipicamente meno potenza di calcolo, rendendolo accessibile a imprese più piccole.
Tuttavia, il processo comporta comunque costi significativi. Le aziende downstream devono preprocessare grandi set di dati per rimuovere rumori e incoerenze prima di poterli utilizzare per l’addestramento. Allo stesso tempo, i fornitori di modelli di base devono fornire l’infrastruttura computazionale necessaria per l’addestramento e l’inferenza, generando spese che influenzano il loro comportamento strategico nel mercato.
Politiche di concorrenza e benessere dei consumatori
I regolatori cercano spesso di aumentare la concorrenza migliorando la trasparenza dei prezzi o richiedendo alle aziende di divulgare informazioni accurate sulle prestazioni dei prodotti. La ricerca identifica due principali categorie di intervento politico: politiche di concorrenza sui prezzi e politiche di concorrenza sulla qualità.
Le politiche che promuovono la concorrenza sui prezzi si concentrano sul miglioramento della trasparenza dei prezzi e sulla facilitazione della comparazione dei prodotti da parte dei consumatori. Tuttavia, lo studio rileva che l’esito è più complesso nelle catene di approvvigionamento dell’IA. Quando la concorrenza si intensifica e le aziende riducono i prezzi, il loro incentivo a investire nel miglioramento dei modelli può diminuire, portando a una potenziale riduzione del benessere del consumatore.
Sussidi per il calcolo e l’economia dell’infrastruttura dell’IA
Lo studio esamina un secondo strumento regolamentare in crescita: i sussidi per il calcolo. Alcuni governi hanno iniziato a sovvenzionare l’accesso all’infrastruttura di calcolo utilizzata per l’addestramento dell’IA. I ricercatori analizzano come tali sussidi influenzano la catena di approvvigionamento dell’IA e trovano che generalmente aumentano il benessere dei consumatori.
Tuttavia, i benefici dipendono fortemente dalle condizioni di costo. Se i costi di calcolo e di preparazione dei dati rimangono elevati, i sussidi potrebbero diventare inefficienti. Inoltre, la progettazione dei sussidi è cruciale: sussidi eccessivamente grandi possono portare le aziende a sovrainvestire nel fine-tuning, aumentando la spesa pubblica senza produrre guadagni proporzionali nel benessere dei consumatori.
Conclusioni
Gli sviluppi nella tecnologia GPU riducono progressivamente i costi di addestramento e distribuzione dei modelli di IA, una tendenza che si prevede continuerà. Man mano che i costi di calcolo diminuiscono, l’efficacia delle diverse politiche regolamentari cambierà. I costi di calcolo in calo aumentano costantemente il surplus dei consumatori, permettendo prodotti di IA di qualità superiore a prezzi più bassi.