Governare l’IA: Inclusività o Esclusione?

Obiettivi Globali, Realtà Locali: Allineare la Governance dell’IA con l’Inclusione

Il 22 settembre 2024, l’Assemblea Generale delle Nazioni Unite ha adottato il Pact for the Future, una risoluzione storica che includeva il Global Digital Compact (GDC). Tra le sue iniziative chiave c’è la creazione di un Panel Internazionale Scientifico Indipendente sull’Intelligenza Artificiale e il lancio di un Dialogo Globale sulla Governance dell’IA.

A prima vista, il GDC sembra essere un passo nella giusta direzione, poiché prevede un futuro digitale che sia inclusivo, equo, sicuro e sostenibile. Tuttavia, il Compact non offre linee guida concrete per garantire che il Panel Scientifico o il Dialogo Globale siano realmente inclusivi. Senza un quadro chiaro e applicabile per la rappresentanza e la partecipazione, è difficile immaginare come questi sforzi possano raggiungere le loro ambizioni dichiarate.

Il Processo delle Risoluzioni ONU

Per comprendere perché questo sia importante, bisogna prima capire come le risoluzioni dell’ONU prendono vita. Anche se formalmente negoziate dagli Stati Membri, questi processi lasciano spesso poco spazio per il contributo della società civile, delle comunità marginalizzate o degli esperti indipendenti. Gran parte della stesura avviene a porte chiuse, guidata da un piccolo circolo di diplomatici. I facilitatori possono sollecitare feedback o invitare invii scritti, ma non ci sono meccanismi vincolanti per garantire che prospettive diverse non solo siano ascoltate, ma anche riflettano realmente il risultato finale.

Questa architettura procedurale è inadeguata per affrontare una sfida complessa e dinamica come l’IA. Quando l’inclusività è assente dal processo, raramente è presente nel risultato. E se continuiamo a costruire quadri di governance globale per l’IA attraverso processi che riflettono solo un insieme ristretto di esperienze e priorità, rischiamo di incorporare disuguaglianze nei sistemi del futuro.

Le Barriere Linguistiche

Il linguaggio presenta una delle prime e più immediate barriere. Quasi tre miliardi di persone in tutto il mondo non possono parlare, leggere o scrivere in nessuna delle sei lingue ufficiali dell’ONU. Se non possono accedere alle conversazioni—sia nelle consultazioni nazionali che nei raduni globali—come possono le loro realtà informare le politiche sviluppate in loro nome? Come possiamo affermare di progettare sistemi di IA equi quando intere comunità linguistiche e culturali sono escluse dal tavolo?

Questo non è un problema teorico—sta accadendo oggi, anche all’interno dell’ONU stessa. Come ha recentemente sottolineato il Segretario Generale durante il lancio dell’iniziativa UN80, l’ONU deve diventare più agile, trasparente e accessibile. Eppure, anche ora, le consultazioni informali e le negoziazioni all’ONU mancano frequentemente di servizi di traduzione, escludendo così in modo efficace innumerevoli Stati Membri e gruppi della società civile che non possono operare in nessuna delle sei lingue ufficiali dell’ONU.

Soluzioni Tecnologiche

Invece di fare affidamento solo su costosi interpreti umani—o peggio, aspettandosi che i partecipanti si arrangino—l’ONU potrebbe abbracciare strumenti di traduzione alimentati dall’IA per colmare queste lacune in tempo reale, specialmente durante consultazioni informali dove le risorse sono limitate. Addestrando questi strumenti su dataset linguistici nazionali, i paesi possono non solo aumentare la loro capacità diplomatica ma anche garantire che le loro lingue e contesti culturali siano rappresentati nello sviluppo stesso degli algoritmi di IA.

Questo approccio ridurrebbe i costi, aumenterebbe l’efficienza e democratizzerebbe la partecipazione, consentendo a diplomatici, negoziatori e stakeholder di tutte le origini linguistiche di interagire in modo significativo senza l’onere delle spese di traduzione. Più importante ancora, permetterebbe ai paesi di riappropriarsi della loro agenzia sui dati, le lingue e il loro posto nella definizione dei processi di governance globale.

Disuguaglianze nei Dati

Ma il linguaggio è solo uno strato di esclusione. Un’altra, meno visibile ma ugualmente significativa, risiede nei dati stessi. Lo sviluppo dell’IA è largamente dominato da un piccolo numero di multinazionali tecnologiche, con sede nel Global North, mentre gran parte dei dati che alimentano i loro sistemi proviene dal Global South. L’impatto è scioccante: il Global South contribuisce alla materia prima per tecnologie avanzate di IA ma è escluso dalle decisioni che governano come queste tecnologie vengono costruite, addestrate e implementate.

Consideriamo un sistema di IA progettato per monitorare le tendenze sanitarie tra donne di origine africana negli Stati Uniti. Ignorare i contesti sanitari più ampi delle popolazioni africane e caraibiche non solo sarebbe miope, ma potrebbe anche essere pericoloso. Gli esiti sanitari sono plasmati dall’interazione di genetica, dieta, ambiente, storia e stato socioeconomico. Quando i dataset mancano di contesto globale, le tecnologie risultanti sono distorte, incomplete e spesso dannose.

Conclusione

Queste preoccupazioni non sono più teoriche. Abbiamo già visto come l’IA possa rafforzare disuguaglianze sistemiche, dagli algoritmi di assunzione discriminatori agli strumenti difettosi utilizzati nella sanità e nella giustizia penale. Questi sistemi non sono neutrali—riflettono le priorità, le assunzioni e i punti ciechi dei loro creatori.

Man mano che la comunità globale inizia a definire l’architettura della governance dell’IA, dobbiamo evitare di ripetere i modelli di esclusione che ci hanno portato a questo punto. Ciò significa rifiutare i vecchi riflessi diplomatici che privilegiano la velocità e il consenso rispetto all’equità e alla rappresentanza. Se siamo seriamente intenzionati a costruire sistemi di IA inclusivi ed etici, allora l’inclusione deve essere fondamentale, non un pensiero successivo.

Ci troviamo a un punto cruciale. Le strutture di governance che costruiamo oggi plasmeranno i confini etici, le traiettorie tecnologiche e le conseguenze sociali dell’IA per i prossimi decenni. Se non agiamo con un’inclusività intenzionale ora, rischiamo di creare sistemi che consolidano le disuguaglianze esistenti e servono gli interessi di pochi a spese di molti.

Il momento delle gestualità simboliche è passato. Ciò di cui abbiamo bisogno ora è una leadership audace e principled—una leadership che pone la giustizia, l’accessibilità e la rappresentanza al centro della governance globale dell’IA.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...