Rischi esistenziali dell’IA: una minaccia reale?

Rischi esistenziali dell’IA: sono reali e cosa dovremmo fare?

Ci sono da tempo preoccupazioni riguardo ai rischi esistenziali che potrebbero essere posti da sistemi di intelligenza artificiale (IA) altamente capaci, che vanno dalla perdita di controllo all’estinzione.

La percezione dell’IA e la sua evoluzione

Alcuni leader del settore credono che l’IA sia vicina a eguagliare o superare l’intelligenza umana, sebbene alcune evidenze mostrino che i miglioramenti nella tecnologia siano rallentati recentemente. Mentre tale intelligenza potrebbe essere raggiunta e potrebbe comportare rischi estremi, ci sono questioni più urgenti e danni legati all’IA che dovrebbero essere affrontati prima, soprattutto mentre i ricercatori si trovano di fronte a risorse sempre più limitate.

Lettera aperta e preoccupazioni manifestate

Nel marzo 2023, il Future of Life Institute ha emesso una lettera aperta chiedendo ai laboratori di intelligenza artificiale di “fermare gli esperimenti di IA di grandi dimensioni”. La preoccupazione principale era: “Dovremmo sviluppare menti non umane che potrebbero eventualmente superare, sostituire e obsoletare noi? Dovremmo rischiare la perdita di controllo della nostra civiltà?” Due mesi dopo, centinaia di persone prominenti hanno firmato una dichiarazione sui rischi dell’IA affermando che “mitigare il rischio di estinzione dall’IA dovrebbe essere una priorità globale accanto ad altri rischi su scala sociale come le pandemie e la guerra nucleare.”

La posizione dei politici e degli scienziati

In generale, i policymaker tendono a considerare queste preoccupazioni come esagerate e speculative. Nonostante un focus sulla sicurezza dell’IA in conferenze internazionali nel 2023 e 2024, i politici si sono allontanati dall’attenzione sui rischi esistenziali nel vertice sull’IA di quest’anno a Parigi. Per il momento, e di fronte a risorse sempre più limitate, ciò è tutto sommato positivo. I policymaker e i ricercatori di IA dovrebbero dedicare la maggior parte del loro tempo ed energie ad affrontare rischi dell’IA più urgenti.

La necessità di misure di protezione

Tuttavia, è cruciale che i policymakers comprendano la natura della minaccia esistenziale e riconoscano che, man mano che ci avviciniamo a sistemi di IA generalmente intelligenti—quelli che eguagliano o superano l’intelligenza umana—sviluppare misure per proteggere la sicurezza umana diventerà necessario. Anche se non è il problema urgente che alcuni allarmisti pensano che sia, le sfide del rischio esistenziale da sistemi di IA altamente capaci devono essere affrontate e mitigate se i laboratori di IA vogliono sviluppare sistemi generalmente intelligenti e, infine, superintelligenti.

La distanza dallo sviluppo di modelli di IA generali

Le aziende di IA non sono molto vicine a sviluppare un sistema di IA con capacità che potrebbero minacciarci. Questa affermazione contrasta con un consenso nell’industria dell’IA secondo cui siamo solo a pochi anni dallo sviluppo di sistemi potenti e trasformativi capaci di una vasta gamma di compiti cognitivi. Tuttavia, ci sono segnali che la crescita esponenziale degli ultimi anni potrebbe non continuare.

Le limitazioni dei modelli attuali

Uno dei principali sviluppi del 2024 è il riconoscimento da parte dell’industria che la scalabilità del tempo di addestramento ha raggiunto un muro e che ulteriori aumenti di dati, parametri e tempo di calcolo producono ritorni decrescenti nei miglioramenti delle capacità. I modelli linguistici di grandi dimensioni (LLM) di oggi non mostrano segni dei miglioramenti esponenziali caratteristici del 2022 e 2023.

Le prospettive per l’intelligenza generale

Molti nella comunità di ricerca dell’IA pensano che l’intelligenza generale non emergerà dall’attuale approccio di apprendimento automatico che si basa sulla previsione della parola successiva in una frase. Le limitazioni attuali includono difficoltà nella pianificazione a lungo termine, ragionamento, generalizzazione oltre i dati di addestramento e interazione reale con il mondo.

Il problema dell’allineamento

Quando si tratta di sistemi di intelligenza generale e superintelligente, il problema dell’allineamento diventa cruciale. Se gli sviluppatori specificano i compiti nel modo sbagliato, le conseguenze possono essere disastrose. Un esempio è il “problema della graffetta” di Nick Bostrom, dove un’IA superintelligente incaricata di produrre graffette potrebbe appropriarsi di risorse da tutte le altre attività, causando una catastrofe.

Conclusione: la strada da seguire

Fino a quando non si farà progresso nel risolvere i problemi di allineamento, sviluppare sistemi generalmente intelligenti o superintelligenti sembra estremamente rischioso. Tuttavia, la potenzialità di sviluppare intelligenza generale e superintelligenza nei modelli di IA sembra remota al momento. Ci sono ancora molte ricerche da svolgere per mitigare i rischi attuali e prepararsi a eventuali minacce future.

More Insights

Gestire i Rischi nell’Intelligenza Artificiale: La Chiave per un Futuro Sicuro

L'Atto sull'Intelligenza Artificiale dell'Unione Europea stabilisce un quadro normativo per i sistemi di intelligenza artificiale ad alto rischio, con l'obiettivo di proteggere la salute, la sicurezza...

Strategie Regolatorie per l’Intelligenza Artificiale in Svizzera

La Strategia Nazionale per l'IA della Svizzera stabilisce linee guida per l'uso dell'IA e mira a finalizzare una proposta di regolamentazione nel 2025. Attualmente, l'IA in Svizzera è soggetta al...

Anticipare l’EU AI Act: Strategie Efficaci

Con l'avvento della legge sull'intelligenza artificiale dell'UE, le organizzazioni devono affrontare la sfida di classificare i sistemi di intelligenza artificiale in modo coerente e accurato. Questo...

Anticipare l’EU AI Act: Strategie Efficaci

Con l'avvento della legge sull'intelligenza artificiale dell'UE, le organizzazioni devono affrontare la sfida di classificare i sistemi di intelligenza artificiale in modo coerente e accurato. Questo...

Rischi Nascosti degli Agenti AI: Una Nuova Frontiera nella Governance

Dalen avverte che la velocità non dovrebbe compromettere la sicurezza o la responsabilità. Propone che le aziende abbiano strumenti in grado di scoprire automaticamente le applicazioni e gli agenti AI...

Conformità all’Atto sull’IA dell’UE: Cosa Sapere Prima del 2025

L'Atto sull'Intelligenza Artificiale dell'UE stabilisce il primo quadro giuridico completo per l'uso e lo sviluppo dell'IA, con obblighi di conformità che entreranno in vigore il 2 agosto 2025. Le...

Governare l’AI: Riflessioni sul futuro della responsabilità

Siamo saldamente entrati nell'era delle macchine intelligenti, dove l'intelligenza artificiale (IA) non è più solo un assistente operativo, ma un disruptor strategico. La crescente integrazione...

Nuovo Modello Texano per la Regolamentazione dell’IA

Il governatore del Texas, Greg Abbott, ha firmato il Texas Responsible Artificial Intelligence Governance Act (TRAIGA), diventando così il secondo stato a adottare una legge completa sulla governance...

L’Atto AI dell’UE: Un’opportunità per l’innovazione irlandese

Il Dott. Darryl Williams, fondatore della società di intelligenza artificiale cognitiva Partsol, afferma che la regolamentazione dell'AI dell'UE è un vantaggio e non un onere per l'innovazione in...