Rischi esistenziali dell’IA: sono reali e cosa dovremmo fare?
Ci sono da tempo preoccupazioni riguardo ai rischi esistenziali che potrebbero essere posti da sistemi di intelligenza artificiale (IA) altamente capaci, che vanno dalla perdita di controllo all’estinzione.
La percezione dell’IA e la sua evoluzione
Alcuni leader del settore credono che l’IA sia vicina a eguagliare o superare l’intelligenza umana, sebbene alcune evidenze mostrino che i miglioramenti nella tecnologia siano rallentati recentemente. Mentre tale intelligenza potrebbe essere raggiunta e potrebbe comportare rischi estremi, ci sono questioni più urgenti e danni legati all’IA che dovrebbero essere affrontati prima, soprattutto mentre i ricercatori si trovano di fronte a risorse sempre più limitate.
Lettera aperta e preoccupazioni manifestate
Nel marzo 2023, il Future of Life Institute ha emesso una lettera aperta chiedendo ai laboratori di intelligenza artificiale di “fermare gli esperimenti di IA di grandi dimensioni”. La preoccupazione principale era: “Dovremmo sviluppare menti non umane che potrebbero eventualmente superare, sostituire e obsoletare noi? Dovremmo rischiare la perdita di controllo della nostra civiltà?” Due mesi dopo, centinaia di persone prominenti hanno firmato una dichiarazione sui rischi dell’IA affermando che “mitigare il rischio di estinzione dall’IA dovrebbe essere una priorità globale accanto ad altri rischi su scala sociale come le pandemie e la guerra nucleare.”
La posizione dei politici e degli scienziati
In generale, i policymaker tendono a considerare queste preoccupazioni come esagerate e speculative. Nonostante un focus sulla sicurezza dell’IA in conferenze internazionali nel 2023 e 2024, i politici si sono allontanati dall’attenzione sui rischi esistenziali nel vertice sull’IA di quest’anno a Parigi. Per il momento, e di fronte a risorse sempre più limitate, ciò è tutto sommato positivo. I policymaker e i ricercatori di IA dovrebbero dedicare la maggior parte del loro tempo ed energie ad affrontare rischi dell’IA più urgenti.
La necessità di misure di protezione
Tuttavia, è cruciale che i policymakers comprendano la natura della minaccia esistenziale e riconoscano che, man mano che ci avviciniamo a sistemi di IA generalmente intelligenti—quelli che eguagliano o superano l’intelligenza umana—sviluppare misure per proteggere la sicurezza umana diventerà necessario. Anche se non è il problema urgente che alcuni allarmisti pensano che sia, le sfide del rischio esistenziale da sistemi di IA altamente capaci devono essere affrontate e mitigate se i laboratori di IA vogliono sviluppare sistemi generalmente intelligenti e, infine, superintelligenti.
La distanza dallo sviluppo di modelli di IA generali
Le aziende di IA non sono molto vicine a sviluppare un sistema di IA con capacità che potrebbero minacciarci. Questa affermazione contrasta con un consenso nell’industria dell’IA secondo cui siamo solo a pochi anni dallo sviluppo di sistemi potenti e trasformativi capaci di una vasta gamma di compiti cognitivi. Tuttavia, ci sono segnali che la crescita esponenziale degli ultimi anni potrebbe non continuare.
Le limitazioni dei modelli attuali
Uno dei principali sviluppi del 2024 è il riconoscimento da parte dell’industria che la scalabilità del tempo di addestramento ha raggiunto un muro e che ulteriori aumenti di dati, parametri e tempo di calcolo producono ritorni decrescenti nei miglioramenti delle capacità. I modelli linguistici di grandi dimensioni (LLM) di oggi non mostrano segni dei miglioramenti esponenziali caratteristici del 2022 e 2023.
Le prospettive per l’intelligenza generale
Molti nella comunità di ricerca dell’IA pensano che l’intelligenza generale non emergerà dall’attuale approccio di apprendimento automatico che si basa sulla previsione della parola successiva in una frase. Le limitazioni attuali includono difficoltà nella pianificazione a lungo termine, ragionamento, generalizzazione oltre i dati di addestramento e interazione reale con il mondo.
Il problema dell’allineamento
Quando si tratta di sistemi di intelligenza generale e superintelligente, il problema dell’allineamento diventa cruciale. Se gli sviluppatori specificano i compiti nel modo sbagliato, le conseguenze possono essere disastrose. Un esempio è il “problema della graffetta” di Nick Bostrom, dove un’IA superintelligente incaricata di produrre graffette potrebbe appropriarsi di risorse da tutte le altre attività, causando una catastrofe.
Conclusione: la strada da seguire
Fino a quando non si farà progresso nel risolvere i problemi di allineamento, sviluppare sistemi generalmente intelligenti o superintelligenti sembra estremamente rischioso. Tuttavia, la potenzialità di sviluppare intelligenza generale e superintelligenza nei modelli di IA sembra remota al momento. Ci sono ancora molte ricerche da svolgere per mitigare i rischi attuali e prepararsi a eventuali minacce future.