Controllo decentralizzato dell’IA: affrontare le paure per un futuro migliore

Richard Sutton avverte contro il “controllo centralizzato” della regolamentazione dell’IA basata sulla paura

In un recente intervento alla conferenza Upper Bound, il vincitore del Premio Turing, Richard Sutton, ha sottolineato l’importanza di affrontare l’intelligenza artificiale (IA) con coraggio, orgoglio e un senso di avventura, respingendo le proposte di regolamentazione della tecnologia basate sulla paura.

Cooperazione decentralizzata

Sutton ha sostenuto la necessità di una cooperazione decentralizzata, dove individui o macchine perseguono obiettivi diversi ma a beneficio reciproco. Ha tracciato un parallelo tra la regolamentazione dell’IA e il “controllo centralizzato” delle persone, evidenziando che molte delle richieste per un controllo centralizzato dell’IA sono motivate da timori simili a quelli utilizzati per giustificare il controllo umano, come il controllo della libertà di espressione e le sanzioni economiche.

La necessità di un approccio positivo

“Ci sono molte richieste per il controllo centralizzato dell’IA,” ha dichiarato Sutton. “Lettere per fermare l’IA o per allinearla agli obiettivi umani, limitare la potenza computazionale dell’IA e, naturalmente, la sicurezza è una questione cruciale.” Invece di adottare un approccio di controllo, Sutton ha esortato a favorire la cooperazione decentralizzata.

Il futuro dell’IA

Secondo Sutton, parte del ruolo dell’umanità nell’universo è creare macchine intelligenti che a loro volta progetteranno cose nuove. Ha affermato che lo sviluppo di un’intelligenza simile a quella umana è inevitabile. Ha precedentemente stimato le probabilità di sviluppare qualcosa che somigli a un’intelligenza generale artificiale (AGI) al 25% entro il 2030 e al 50% entro il 2040.

Formazione e apprendimento autonomo

Sutton ha affermato che stiamo entrando in una nuova era dell’IA, in cui i modelli e gli agenti apprenderanno principalmente dalle proprie esperienze, piuttosto che dai dati umani. Attualmente, i modelli di IA sono addestrati e perfezionati su dati generati dagli esseri umani, inclusi testi e immagini. Tuttavia, la prossima fase prevede l’addestramento di modelli e agenti di IA affinché apprendano attraverso le proprie esperienze e percezioni, generando così nuova conoscenza invece di ripetere ciò che è stato fornito loro dagli esseri umani.

Considerazioni finali

Nonostante il tono esistenziale del suo intervento, Sutton ha affermato di trascorrere le sue giornate “nelle trincee scientifiche” programmando algoritmi di IA, e che la filosofia è solo un hobby. Ha invitato l’umanità ad abbracciare l’IA con coraggio, orgoglio e un senso di avventura.

In conclusione, Sutton ha espresso preoccupazione che gli utenti di modelli di linguaggio di grandi dimensioni possano prendere per vere le informazioni generate dall’IA, nonostante questi modelli siano inclini a errori e allucinazioni.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...