Britannici contrari all’IA “più intelligente dell’uomo”

Esclusivo: Gli inglesi vogliono vietare l’IA ‘più intelligente degli esseri umani’

Con l’avanzare della Silicon Valley nella costruzione di modelli di intelligenza artificiale (IA) sempre più potenti, l’opinione pubblica dall’altra parte dell’Atlantico rimane decisamente scettica riguardo all’influenza dei CEO tecnologici sulla regolamentazione del settore. La stragrande maggioranza degli inglesi è preoccupata per la sicurezza dei nuovi sistemi di IA.

Queste preoccupazioni, messe in evidenza da un nuovo sondaggio condiviso esclusivamente, giungono in un momento in cui leader mondiali e capi delle tecnologie si preparano a riunirsi a Parigi per discutere il ritmo rapido degli sviluppi nell’IA.

Il sondaggio

Il nuovo sondaggio mostra che l’87% degli inglesi sarebbe favorevole a una legge che richieda agli sviluppatori di IA di dimostrare che i loro sistemi sono sicuri prima del rilascio. Inoltre, il 60% è favorevole a vietare lo sviluppo di modelli di IA “più intelligenti degli esseri umani”. Solo il 9% ha affermato di fidarsi dei CEO tecnologici per agire nell’interesse pubblico riguardo alla regolamentazione dell’IA. Il sondaggio è stato condotto da YouGov per conto di un’organizzazione no-profit focalizzata sui rischi dell’IA.

I risultati riflettono crescenti ansie pubbliche riguardo allo sviluppo di sistemi di IA che potrebbero eguagliare o addirittura superare gli esseri umani in molte attività. Questa tecnologia non esiste attualmente, ma è l’obiettivo espresso di importanti aziende di IA come OpenAI, Google, Anthropic e Meta, proprietaria di Facebook e Instagram. Infatti, diversi CEO tecnologici si aspettano che tali sistemi diventino realtà in pochi anni, se non prima.

Le preoccupazioni pubbliche

In questo contesto, il 75% degli inglesi intervistati ha dichiarato che le leggi dovrebbero esplicitamente vietare lo sviluppo di sistemi di IA che possono sfuggire ai loro ambienti. Oltre la metà (63%) ha concordato con l’idea di proibire la creazione di sistemi di IA che possono rendersi più intelligenti o potenti.

I risultati del sondaggio britannico rispecchiano quelli di recenti sondaggi negli Stati Uniti e indicano un crescente divario tra l’opinione pubblica e l’azione regolamentare riguardo all’IA avanzata. Anche il Regolamento sull’IA dell’Unione Europea, ampiamente considerato la legislazione sull’IA più completa al mondo, non affronta direttamente molti dei rischi potenziali posti dai sistemi di IA che raggiungono o superano le abilità umane.

La mancanza di un quadro normativo

Nel Regno Unito, dove il sondaggio YouGov tra 2.344 adulti è stato condotto dal 16 al 17 gennaio, non esiste un quadro normativo completo per l’IA. Sebbene il partito laburista al governo avesse promesso di introdurre nuove regole sull’IA prima delle ultime elezioni generali nel 2024, da allora ha ritardato l’introduzione di un disegno di legge sull’IA mentre si confronta con la sfida di ripristinare la crescita della sua economia in difficoltà.

In gennaio, ad esempio, il primo ministro britannico ha annunciato che l’IA sarebbe stata “integrata nelle vene” della nazione per stimolare la crescita, un chiaro spostamento dal discorso sulla regolamentazione.

Una nuova spinta per nuove leggi

Il sondaggio è stato accompagnato da una dichiarazione firmata da 16 legislatori britannici di entrambi i principali partiti politici, che ha chiesto al governo di introdurre nuove leggi sull’IA mirate specificamente ai sistemi di IA “superintelligenti”, o quelli che potrebbero diventare molto più intelligenti degli esseri umani.

“Le IA specializzate – come quelle che avanzano in scienza e medicina – stimolano la crescita, l’innovazione e i servizi pubblici. I sistemi di IA superintelligenti, al contrario, comprometterebbero la sicurezza nazionale e globale,” si legge nella dichiarazione. “Il Regno Unito può garantire i benefici e mitigare i rischi dell’IA mantenendo la promessa di introdurre una regolamentazione vincolante sui sistemi di IA più potenti.”

Molti nel settore incolpano l’IA Act dell’UE e altre leggi ampie di aver ostacolato la crescita del settore tecnologico europeo. Invece, si sostiene che il Regno Unito potrebbe imporre una “regolamentazione dell’IA mirata e chirurgica” che si applica solo ai modelli più potenti che pongono ciò che si vede come i maggiori rischi.

“Quello che il pubblico desidera sono sistemi che li aiutino, non sistemi che li sostituiscano,” afferma un esperto del settore. “Non dovremmo perseguire sistemi superintelligenti fino a quando non sappiamo come dimostrare che sono sicuri.”

I dati del sondaggio mostrano anche che una larga maggioranza (74%) degli inglesi sostiene un impegno fatto dal partito laburista prima delle ultime elezioni per consacrare l’AI Safety Institute del Regno Unito nella legge, conferendogli potere di agire come regolatore. Attualmente, l’AI Safety Institute – un organismo del governo del Regno Unito – esegue test sui modelli di IA privati prima del loro rilascio, ma non ha autorità per costringere le aziende tecnologiche a modifiche o per decidere che i modelli siano troppo pericolosi per essere rilasciati.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...