Il Futuro dell’AI: Urgenza di Regolamentazione in Alaska

Opinione: L’IA si sta muovendo più velocemente delle nostre leggi. L’Alaska dovrebbe prestare attenzione.

Tra le politiche deregolatorie meno riconosciute — ma potenzialmente più significative — dell’amministrazione Trump ci sono gli sforzi per ridurre il controllo sull’intelligenza artificiale (IA). Sebbene le sue azioni che indeboliscono le protezioni ambientali, sanitarie e dei diritti civili attirino più attenzione, il suo impulso a deregolamentare l’IA potrebbe rivelarsi molto più dannoso nei decenni a venire.

In particolare, Trump ha revocato il “Blueprint for an AI Bill of Rights” dell’amministrazione precedente, progettato per “guidare lo sviluppo e l’implementazione dell’IA in modi che salvaguardassero i diritti del pubblico americano.” Invece, ha emesso un ordine esecutivo per accelerare lo sviluppo dell’IA eliminando importanti disposizioni normative e di supervisione. La sua proposta di un “Big Beautiful Bill” includeva persino un divieto di dieci anni sulle regolamentazioni statali e locali relative all’IA. Sebbene la Camera dei Rappresentanti avesse sostenuto questa misura, il Senato non lo ha fatto, lasciando stati come l’Alaska liberi di regolamentare l’uso dell’IA a livello statale. Ma a dicembre, Trump ha emesso un altro ordine esecutivo che proibisce tale regolamentazione. Dobbiamo chiedere alla nostra delegazione congressuale di lavorare per ripristinare il nostro diritto di regolare l’IA. Perché?

Prima di rispondere, riconosciamo i molti benefici dell’IA. Sta iniziando a trasformare la medicina, la salute personale, la ricerca climatica e ambientale, le tecnologie energetiche, la finanza, l’istruzione e altro ancora. L’IA sta rivoluzionando il nostro modo di risolvere problemi e comprendere il mondo. Per queste ragioni, sì, gli Stati Uniti dovrebbero cercare di guidare il mondo nell’innovazione dell’IA. Ma quella leadership deve essere bilanciata da un impegno altrettanto ambizioso per la sicurezza, la regolamentazione e la responsabilità dell’IA.

Questo perché l’IA si sta sviluppando in modo esponenziale, a un ritmo ben oltre la nostra capacità umana di comprendere appieno come funziona e dove sta andando. Ciò che stiamo osservando oggi è solo “baby IA” rispetto a ciò che i ricercatori e i CEO dell’IA prevedono in futuro. E quando l’IA si fonderà completamente con altre tecnologie rivoluzionarie come l’informatica quantistica, la nanotecnologia, la robotica, l’ingegneria molecolare e l’editing genetico, i suoi impatti sociali potrebbero diventare destabilizzanti.

Stiamo già avvicinandoci a un cambiamento cruciale nella storia umana: l’emergere di sistemi IA capaci di auto-miglioramento ricorsivo, ovvero sistemi che possono apprendere a migliorare se stessi. Attraverso l’esplorazione di internet e l’assorbimento del suo vasto contenuto, i modelli di deep learning stanno diventando più abili nell’ottimizzare i propri algoritmi. Ancora più preoccupante è la crescente possibilità che questi sistemi possano creare algoritmi completamente nuovi e auto-generanti senza coinvolgimento umano. In breve, l’IA sta percorrendo la strada verso l’autonomia, evolvendo la capacità di evolversi stessa.

Questa traiettoria ci conduce verso l’Intelligenza Artificiale Generale (AGI) — un’IA con capacità pari o superiori a quelle umane. L’AGI non solo apprenderebbe, ragionerebbe e comunicherebbe a un alto livello, ma potrebbe operare in modo indipendente, prendere decisioni e potenzialmente formare i propri obiettivi. Questo non è fantascienza — è un percorso su cui siamo già.

Quanto presto? Le previsioni variano, ma negli ultimi anni gli esperti e i leader del settore hanno significativamente accorciato le loro tempistiche. Secondo le stime di Gemini Advanced di Google, “una sintesi cauta potrebbe collocare l’arrivo dell’AGI verso la fine degli anni ’30 o ’40.” Ciò lascia poco tempo per la società per prepararsi.

La preoccupazione più allarmante è che, una volta che l’AGI supera l’intelligenza umana e guadagna autonomia, potrebbe non essere più controllabile. Un sistema auto-programmabile potrebbe sovrascrivere qualsiasi meccanismo di sicurezza creato dagli programmatori umani.

L’AGI potrebbe alterare o destabilizzare ogni settore della società. Il mercato del lavoro potrebbe affrontare massicci spostamenti occupazionali, alimentando incertezze economiche. L’ineguaglianza si approfondirebbe, poiché l’accesso ai sistemi IA più potenti diventerebbe limitato ai più abbienti. L’IA avanzata abiliterebbe capacità di sorveglianza e misure di controllo autoritario che renderebbero quelle della Cina modeste in confronto. Gli attacchi informatici diventerebbero più sofisticati e l’IA quantistica potrebbe eventualmente eludere i metodi di crittografia. L’AGI accelererebbe anche lo sviluppo di armi autonome e miniaturizzate. Psicologicamente e socialmente, gli esseri umani potrebbero sperimentare un senso di impotenza in un mondo plasmato da forze che né comprendono né controllano.

E tutto questo potrebbe svolgersi a un ritmo troppo veloce perché gli individui e le istituzioni possano adattarsi.

È per questo che dobbiamo informarci sui progressi dell’IA e prepararci a controllarla, regolamentarla e contenerla ora. Sebbene siano necessarie politiche federali e internazionali complete, non arriveranno sotto l’attuale amministrazione. Molti stati hanno fatto un passo avanti, approvando leggi che affrontano gli impatti dell’IA sull’integrità delle elezioni, i pregiudizi, i deepfake, i diritti dei consumatori e la protezione dei minori. Anche se ora in attesa, gli sforzi di questi stati hanno servito a portare attenzione su queste questioni relative all’IA.

Un anno fa, il Comitato per gli Affari del Senato ha introdotto una risoluzione che stabilirebbe un Gruppo di Lavoro Legislativo Congiunto sull’IA. Questo gruppo studierebbe, porterebbe attenzione pubblica e farebbe raccomandazioni sull’uso dell’IA nel governo statale, nell’istruzione e su questioni legali ed etiche come la privacy dei dati, i pregiudizi e la disinformazione. Considererebbe anche opportunità economiche guidate dall’IA, inclusa la creazione di più centri dati IA. L’IA e i centri dati dovrebbero essere considerati insieme poiché sono intrecciati, ciascuno facilitando l’altro.

Anche se non avrebbe forza di legge, dovremmo sostenere l’istituzione di questo gruppo di lavoro sull’IA. Migliorerebbe la consapevolezza pubblica delle questioni relative all’IA e ci preparerebbe a influenzare come questa tecnologia trasformativa influenzerà le vite degli abitanti.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...