Il dibattito sulla sicurezza dell’IA ha bisogno di scettici

Il dibattito sulla sicurezza dell’IA ha bisogno di scettici dell’IA

Partecipare a una conferenza sulle minacce emergenti dell’intelligenza generale artificiale come realista scettico è molto simile a partecipare a un servizio religioso per la fede di qualcun altro. Come qualcuno che guarda alle capacità tecniche e alle applicazioni reali dei sistemi piuttosto che a come immaginiamo possano essere utilizzati, spesso incontro una fede incrollabile nelle minacce immaginate. Incontri molte persone amichevoli nello spazio del rischio dell’IA. Tutti parlano di qualcosa che cambierà il mondo, ma continuo a guardarmi intorno in cerca di segni che non riesco a vedere.

La fede può cambiare il mondo tanto quanto la realtà, quindi è utile comprendere questi miti dell’IA e come influenzano i nostri pensieri. Tali miti animano discussioni sul rischio esistenziale e visioni di dislocazione economica a breve termine in cui immaginiamo un mondo in cui il lavoro diventa obsoleto. In contesti di conferenza, i veri credenti creano un senso che ciò rappresenti un limite alla mia immaginazione, una mancanza di comprensione degli sviluppi più avanzati dell’IA, o persino la mia capacità di empatia.

La complessità del rischio dell’IA

Sebbene possa essere facile liquidare questa fede apparente nel potenziale dirompente dell’IA come parte di un inganno, la realtà è molto più complessa. La comunità del rischio dell’IA non è piena di cinici e truffatori. Sono esperti ben intenzionati e professionisti di vari settori, tutti preoccupati per la traiettoria dell’IA verso una super-intelligenza vagamente definita.

Sebbene le prove di questa traiettoria verso la IA generale artificiale (AGI) siano fragili, l’orientamento verso l’immaginazione può creare vertigini intellettuali: lo stesso relatore che suggerisce che l’adozione dell’IA è meno dirompente per il mercato del previsto discuterà con entusiasmo le domande del pubblico come se l’IA stesse comunque portando a una enorme destabilizzazione economica.

Politica senza proselitismo

Supponiamo che tutti noi intendiamo sinceramente anticipare i danni da queste tecnologie. In tal caso, la priorità dovrebbe essere quella di decifrare quali danni siano più probabili. La pura speculazione è limitata solo dai limiti dell’immaginazione, quindi un’identificazione rigorosa delle priorità è fondamentale. Ci sono prove ampie dei danni che derivano dalle false applicazioni dell’IA e delle etichette.

Le conversazioni relative al “rischio dell’IA” sono curate per evitare l’apparenza di partigianeria. Anche nei momenti migliori, la politica rappresenta un consenso di prospettive opposte e spesso mira a lavorare “al di sopra della politica”. Ancorata al compromesso, il dialogo politico è letteralmente compromesso, indebolendo la complessità politica in gioco con l’IA.

La terminologia pragmatica

Navigare nel discorso in questo modo ha creato soluzioni controproducenti per risolvere le tensioni. Ciò che è emerso è un vocabolario politico inteso a inquadrare le scelte strategiche nello spazio dell’IA, indipendentemente dal fatto che qualcuno creda o meno nell’inevitabilità di tutti i sistemi IA potenti. Questo vocabolario politico è stato creato nel tempo da coloro che hanno una mentalità che l’AGI è inevitabile.

Abbracciare questo linguaggio è il motivo per cui il movimento del rischio esistenziale è stato molto più persuasivo nei confronti dei legislatori e dei giornalisti rispetto alla visione realista o scettica. I quadri del rischio esistenziale incontrano le persone in modi che confermano le credenze plasmate attraverso decenni di fantascienza.

I pericoli dei quadri dell’AGI

Indipendentemente dal vocabolario, molte conversazioni sul rischio dell’AGI sono ancora radicate nella realtà: le persone sanno che è speculativo e sperano di condurre un dialogo in modi che creino applicazioni utili della politica per il momento attuale. Tuttavia, è controintuitivo quanto discutere di etica radicata nella ragione con qualcuno la cui etica è radicata in una fede sconosciuta.

Quando promuoviamo continuamente l’IA generativa di oggi come se fosse a soli sei o dieci anni dalla capacità intellettuale superumana, rischiamo di rafforzare l’idea che la tecnologia attuale sia abbastanza robusta per un’implementazione limitata in aree in cui certamente non lo è.

Rischio e sistemi socio-tecnici

Gli esseri umani sono una parte fondamentale di qualsiasi sistema di IA, e il black box del processo decisionale burocratico è il vero “rischio”. Dove, quando e come implementiamo decisioni automatizzate, e dove, quando e come potremmo farlo male, è modellato dalla nostra comprensione e immaginazione di cosa i sistemi siano capaci di fare. Esaminare questo rischio in modo rigoroso richiede di riconoscere i limiti degli strumenti e della nostra immaginazione, piuttosto che assumere in modo acritico un miglioramento ricorsivo infinito.

Il futuro non sarà mai determinato dall’IA in isolamento, ma da come le persone la usano o la rifiutano. Il lavoro anticipatorio è importante. Le misure politiche stabilite in anticipo aiutano a prevenire catastrofi e impatti sociali inutili, guidandoci verso uno sviluppo più socialmente benefico.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...