Opinione: L’IA si sta muovendo più velocemente delle nostre leggi. L’Alaska dovrebbe prestare attenzione.
Tra le politiche deregolatorie meno riconosciute — ma potenzialmente più significative — dell’amministrazione Trump ci sono gli sforzi per ridurre il controllo sull’intelligenza artificiale (IA). Sebbene le sue azioni che indeboliscono le protezioni ambientali, sanitarie e dei diritti civili attirino più attenzione, il suo impulso a deregolamentare l’IA potrebbe rivelarsi molto più dannoso nei decenni a venire.
In particolare, Trump ha revocato il “Blueprint for an AI Bill of Rights” dell’amministrazione precedente, progettato per “guidare lo sviluppo e l’implementazione dell’IA in modi che salvaguardassero i diritti del pubblico americano.” Invece, ha emesso un ordine esecutivo per accelerare lo sviluppo dell’IA eliminando importanti disposizioni normative e di supervisione. La sua proposta di un “Big Beautiful Bill” includeva persino un divieto di dieci anni sulle regolamentazioni statali e locali relative all’IA. Sebbene la Camera dei Rappresentanti avesse sostenuto questa misura, il Senato non lo ha fatto, lasciando stati come l’Alaska liberi di regolamentare l’uso dell’IA a livello statale. Ma a dicembre, Trump ha emesso un altro ordine esecutivo che proibisce tale regolamentazione. Dobbiamo chiedere alla nostra delegazione congressuale di lavorare per ripristinare il nostro diritto di regolare l’IA. Perché?
Prima di rispondere, riconosciamo i molti benefici dell’IA. Sta iniziando a trasformare la medicina, la salute personale, la ricerca climatica e ambientale, le tecnologie energetiche, la finanza, l’istruzione e altro ancora. L’IA sta rivoluzionando il nostro modo di risolvere problemi e comprendere il mondo. Per queste ragioni, sì, gli Stati Uniti dovrebbero cercare di guidare il mondo nell’innovazione dell’IA. Ma quella leadership deve essere bilanciata da un impegno altrettanto ambizioso per la sicurezza, la regolamentazione e la responsabilità dell’IA.
Questo perché l’IA si sta sviluppando in modo esponenziale, a un ritmo ben oltre la nostra capacità umana di comprendere appieno come funziona e dove sta andando. Ciò che stiamo osservando oggi è solo “baby IA” rispetto a ciò che i ricercatori e i CEO dell’IA prevedono in futuro. E quando l’IA si fonderà completamente con altre tecnologie rivoluzionarie come l’informatica quantistica, la nanotecnologia, la robotica, l’ingegneria molecolare e l’editing genetico, i suoi impatti sociali potrebbero diventare destabilizzanti.
Stiamo già avvicinandoci a un cambiamento cruciale nella storia umana: l’emergere di sistemi IA capaci di auto-miglioramento ricorsivo, ovvero sistemi che possono apprendere a migliorare se stessi. Attraverso l’esplorazione di internet e l’assorbimento del suo vasto contenuto, i modelli di deep learning stanno diventando più abili nell’ottimizzare i propri algoritmi. Ancora più preoccupante è la crescente possibilità che questi sistemi possano creare algoritmi completamente nuovi e auto-generanti senza coinvolgimento umano. In breve, l’IA sta percorrendo la strada verso l’autonomia, evolvendo la capacità di evolversi stessa.
Questa traiettoria ci conduce verso l’Intelligenza Artificiale Generale (AGI) — un’IA con capacità pari o superiori a quelle umane. L’AGI non solo apprenderebbe, ragionerebbe e comunicherebbe a un alto livello, ma potrebbe operare in modo indipendente, prendere decisioni e potenzialmente formare i propri obiettivi. Questo non è fantascienza — è un percorso su cui siamo già.
Quanto presto? Le previsioni variano, ma negli ultimi anni gli esperti e i leader del settore hanno significativamente accorciato le loro tempistiche. Secondo le stime di Gemini Advanced di Google, “una sintesi cauta potrebbe collocare l’arrivo dell’AGI verso la fine degli anni ’30 o ’40.” Ciò lascia poco tempo per la società per prepararsi.
La preoccupazione più allarmante è che, una volta che l’AGI supera l’intelligenza umana e guadagna autonomia, potrebbe non essere più controllabile. Un sistema auto-programmabile potrebbe sovrascrivere qualsiasi meccanismo di sicurezza creato dagli programmatori umani.
L’AGI potrebbe alterare o destabilizzare ogni settore della società. Il mercato del lavoro potrebbe affrontare massicci spostamenti occupazionali, alimentando incertezze economiche. L’ineguaglianza si approfondirebbe, poiché l’accesso ai sistemi IA più potenti diventerebbe limitato ai più abbienti. L’IA avanzata abiliterebbe capacità di sorveglianza e misure di controllo autoritario che renderebbero quelle della Cina modeste in confronto. Gli attacchi informatici diventerebbero più sofisticati e l’IA quantistica potrebbe eventualmente eludere i metodi di crittografia. L’AGI accelererebbe anche lo sviluppo di armi autonome e miniaturizzate. Psicologicamente e socialmente, gli esseri umani potrebbero sperimentare un senso di impotenza in un mondo plasmato da forze che né comprendono né controllano.
E tutto questo potrebbe svolgersi a un ritmo troppo veloce perché gli individui e le istituzioni possano adattarsi.
È per questo che dobbiamo informarci sui progressi dell’IA e prepararci a controllarla, regolamentarla e contenerla ora. Sebbene siano necessarie politiche federali e internazionali complete, non arriveranno sotto l’attuale amministrazione. Molti stati hanno fatto un passo avanti, approvando leggi che affrontano gli impatti dell’IA sull’integrità delle elezioni, i pregiudizi, i deepfake, i diritti dei consumatori e la protezione dei minori. Anche se ora in attesa, gli sforzi di questi stati hanno servito a portare attenzione su queste questioni relative all’IA.
Un anno fa, il Comitato per gli Affari del Senato ha introdotto una risoluzione che stabilirebbe un Gruppo di Lavoro Legislativo Congiunto sull’IA. Questo gruppo studierebbe, porterebbe attenzione pubblica e farebbe raccomandazioni sull’uso dell’IA nel governo statale, nell’istruzione e su questioni legali ed etiche come la privacy dei dati, i pregiudizi e la disinformazione. Considererebbe anche opportunità economiche guidate dall’IA, inclusa la creazione di più centri dati IA. L’IA e i centri dati dovrebbero essere considerati insieme poiché sono intrecciati, ciascuno facilitando l’altro.
Anche se non avrebbe forza di legge, dovremmo sostenere l’istituzione di questo gruppo di lavoro sull’IA. Migliorerebbe la consapevolezza pubblica delle questioni relative all’IA e ci preparerebbe a influenzare come questa tecnologia trasformativa influenzerà le vite degli abitanti.