Il dibattito sulla sicurezza dell’IA ha bisogno di scettici dell’IA
Partecipare a una conferenza sulle minacce emergenti dell’intelligenza generale artificiale come realista scettico è molto simile a partecipare a un servizio religioso per la fede di qualcun altro. Come qualcuno che guarda alle capacità tecniche e alle applicazioni reali dei sistemi piuttosto che a come immaginiamo possano essere utilizzati, spesso incontro una fede incrollabile nelle minacce immaginate. Incontri molte persone amichevoli nello spazio del rischio dell’IA. Tutti parlano di qualcosa che cambierà il mondo, ma continuo a guardarmi intorno in cerca di segni che non riesco a vedere.
La fede può cambiare il mondo tanto quanto la realtà, quindi è utile comprendere questi miti dell’IA e come influenzano i nostri pensieri. Tali miti animano discussioni sul rischio esistenziale e visioni di dislocazione economica a breve termine in cui immaginiamo un mondo in cui il lavoro diventa obsoleto. In contesti di conferenza, i veri credenti creano un senso che ciò rappresenti un limite alla mia immaginazione, una mancanza di comprensione degli sviluppi più avanzati dell’IA, o persino la mia capacità di empatia.
La complessità del rischio dell’IA
Sebbene possa essere facile liquidare questa fede apparente nel potenziale dirompente dell’IA come parte di un inganno, la realtà è molto più complessa. La comunità del rischio dell’IA non è piena di cinici e truffatori. Sono esperti ben intenzionati e professionisti di vari settori, tutti preoccupati per la traiettoria dell’IA verso una super-intelligenza vagamente definita.
Sebbene le prove di questa traiettoria verso la IA generale artificiale (AGI) siano fragili, l’orientamento verso l’immaginazione può creare vertigini intellettuali: lo stesso relatore che suggerisce che l’adozione dell’IA è meno dirompente per il mercato del previsto discuterà con entusiasmo le domande del pubblico come se l’IA stesse comunque portando a una enorme destabilizzazione economica.
Politica senza proselitismo
Supponiamo che tutti noi intendiamo sinceramente anticipare i danni da queste tecnologie. In tal caso, la priorità dovrebbe essere quella di decifrare quali danni siano più probabili. La pura speculazione è limitata solo dai limiti dell’immaginazione, quindi un’identificazione rigorosa delle priorità è fondamentale. Ci sono prove ampie dei danni che derivano dalle false applicazioni dell’IA e delle etichette.
Le conversazioni relative al “rischio dell’IA” sono curate per evitare l’apparenza di partigianeria. Anche nei momenti migliori, la politica rappresenta un consenso di prospettive opposte e spesso mira a lavorare “al di sopra della politica”. Ancorata al compromesso, il dialogo politico è letteralmente compromesso, indebolendo la complessità politica in gioco con l’IA.
La terminologia pragmatica
Navigare nel discorso in questo modo ha creato soluzioni controproducenti per risolvere le tensioni. Ciò che è emerso è un vocabolario politico inteso a inquadrare le scelte strategiche nello spazio dell’IA, indipendentemente dal fatto che qualcuno creda o meno nell’inevitabilità di tutti i sistemi IA potenti. Questo vocabolario politico è stato creato nel tempo da coloro che hanno una mentalità che l’AGI è inevitabile.
Abbracciare questo linguaggio è il motivo per cui il movimento del rischio esistenziale è stato molto più persuasivo nei confronti dei legislatori e dei giornalisti rispetto alla visione realista o scettica. I quadri del rischio esistenziale incontrano le persone in modi che confermano le credenze plasmate attraverso decenni di fantascienza.
I pericoli dei quadri dell’AGI
Indipendentemente dal vocabolario, molte conversazioni sul rischio dell’AGI sono ancora radicate nella realtà: le persone sanno che è speculativo e sperano di condurre un dialogo in modi che creino applicazioni utili della politica per il momento attuale. Tuttavia, è controintuitivo quanto discutere di etica radicata nella ragione con qualcuno la cui etica è radicata in una fede sconosciuta.
Quando promuoviamo continuamente l’IA generativa di oggi come se fosse a soli sei o dieci anni dalla capacità intellettuale superumana, rischiamo di rafforzare l’idea che la tecnologia attuale sia abbastanza robusta per un’implementazione limitata in aree in cui certamente non lo è.
Rischio e sistemi socio-tecnici
Gli esseri umani sono una parte fondamentale di qualsiasi sistema di IA, e il black box del processo decisionale burocratico è il vero “rischio”. Dove, quando e come implementiamo decisioni automatizzate, e dove, quando e come potremmo farlo male, è modellato dalla nostra comprensione e immaginazione di cosa i sistemi siano capaci di fare. Esaminare questo rischio in modo rigoroso richiede di riconoscere i limiti degli strumenti e della nostra immaginazione, piuttosto che assumere in modo acritico un miglioramento ricorsivo infinito.
Il futuro non sarà mai determinato dall’IA in isolamento, ma da come le persone la usano o la rifiutano. Il lavoro anticipatorio è importante. Le misure politiche stabilite in anticipo aiutano a prevenire catastrofi e impatti sociali inutili, guidandoci verso uno sviluppo più socialmente benefico.