Rischi esistenziali dell’IA: una minaccia reale?

Rischi esistenziali dell’IA: sono reali e cosa dovremmo fare?

Ci sono da tempo preoccupazioni riguardo ai rischi esistenziali che potrebbero essere posti da sistemi di intelligenza artificiale (IA) altamente capaci, che vanno dalla perdita di controllo all’estinzione.

La percezione dell’IA e la sua evoluzione

Alcuni leader del settore credono che l’IA sia vicina a eguagliare o superare l’intelligenza umana, sebbene alcune evidenze mostrino che i miglioramenti nella tecnologia siano rallentati recentemente. Mentre tale intelligenza potrebbe essere raggiunta e potrebbe comportare rischi estremi, ci sono questioni più urgenti e danni legati all’IA che dovrebbero essere affrontati prima, soprattutto mentre i ricercatori si trovano di fronte a risorse sempre più limitate.

Lettera aperta e preoccupazioni manifestate

Nel marzo 2023, il Future of Life Institute ha emesso una lettera aperta chiedendo ai laboratori di intelligenza artificiale di “fermare gli esperimenti di IA di grandi dimensioni”. La preoccupazione principale era: “Dovremmo sviluppare menti non umane che potrebbero eventualmente superare, sostituire e obsoletare noi? Dovremmo rischiare la perdita di controllo della nostra civiltà?” Due mesi dopo, centinaia di persone prominenti hanno firmato una dichiarazione sui rischi dell’IA affermando che “mitigare il rischio di estinzione dall’IA dovrebbe essere una priorità globale accanto ad altri rischi su scala sociale come le pandemie e la guerra nucleare.”

La posizione dei politici e degli scienziati

In generale, i policymaker tendono a considerare queste preoccupazioni come esagerate e speculative. Nonostante un focus sulla sicurezza dell’IA in conferenze internazionali nel 2023 e 2024, i politici si sono allontanati dall’attenzione sui rischi esistenziali nel vertice sull’IA di quest’anno a Parigi. Per il momento, e di fronte a risorse sempre più limitate, ciò è tutto sommato positivo. I policymaker e i ricercatori di IA dovrebbero dedicare la maggior parte del loro tempo ed energie ad affrontare rischi dell’IA più urgenti.

La necessità di misure di protezione

Tuttavia, è cruciale che i policymakers comprendano la natura della minaccia esistenziale e riconoscano che, man mano che ci avviciniamo a sistemi di IA generalmente intelligenti—quelli che eguagliano o superano l’intelligenza umana—sviluppare misure per proteggere la sicurezza umana diventerà necessario. Anche se non è il problema urgente che alcuni allarmisti pensano che sia, le sfide del rischio esistenziale da sistemi di IA altamente capaci devono essere affrontate e mitigate se i laboratori di IA vogliono sviluppare sistemi generalmente intelligenti e, infine, superintelligenti.

La distanza dallo sviluppo di modelli di IA generali

Le aziende di IA non sono molto vicine a sviluppare un sistema di IA con capacità che potrebbero minacciarci. Questa affermazione contrasta con un consenso nell’industria dell’IA secondo cui siamo solo a pochi anni dallo sviluppo di sistemi potenti e trasformativi capaci di una vasta gamma di compiti cognitivi. Tuttavia, ci sono segnali che la crescita esponenziale degli ultimi anni potrebbe non continuare.

Le limitazioni dei modelli attuali

Uno dei principali sviluppi del 2024 è il riconoscimento da parte dell’industria che la scalabilità del tempo di addestramento ha raggiunto un muro e che ulteriori aumenti di dati, parametri e tempo di calcolo producono ritorni decrescenti nei miglioramenti delle capacità. I modelli linguistici di grandi dimensioni (LLM) di oggi non mostrano segni dei miglioramenti esponenziali caratteristici del 2022 e 2023.

Le prospettive per l’intelligenza generale

Molti nella comunità di ricerca dell’IA pensano che l’intelligenza generale non emergerà dall’attuale approccio di apprendimento automatico che si basa sulla previsione della parola successiva in una frase. Le limitazioni attuali includono difficoltà nella pianificazione a lungo termine, ragionamento, generalizzazione oltre i dati di addestramento e interazione reale con il mondo.

Il problema dell’allineamento

Quando si tratta di sistemi di intelligenza generale e superintelligente, il problema dell’allineamento diventa cruciale. Se gli sviluppatori specificano i compiti nel modo sbagliato, le conseguenze possono essere disastrose. Un esempio è il “problema della graffetta” di Nick Bostrom, dove un’IA superintelligente incaricata di produrre graffette potrebbe appropriarsi di risorse da tutte le altre attività, causando una catastrofe.

Conclusione: la strada da seguire

Fino a quando non si farà progresso nel risolvere i problemi di allineamento, sviluppare sistemi generalmente intelligenti o superintelligenti sembra estremamente rischioso. Tuttavia, la potenzialità di sviluppare intelligenza generale e superintelligenza nei modelli di IA sembra remota al momento. Ci sono ancora molte ricerche da svolgere per mitigare i rischi attuali e prepararsi a eventuali minacce future.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...