Governance dell’AI: Diritti umani a rischio nella convergenza tra giganti tecnologici e autoritari

Governance dell’IA: Diritti umani in bilico mentre i giganti tecnologici e gli autoritari si incontrano

Gli algoritmi decidono chi vive e muore nella Striscia di Gaza. La sorveglianza potenziata dall’intelligenza artificiale (IA) traccia i giornalisti in Serbia. Armi autonome vengono sfilate per le strade di Pechino in dimostrazioni di potenza tecnologica. Questa non è fantascienza distopica; è la realtà di oggi. Con il cambiamento del mondo da parte dell’IA, la questione di chi controlla questa tecnologia e come viene governata è diventata una priorità urgente.

Fallimenti della governance

Il mese scorso, l’Assemblea Generale delle Nazioni Unite ha adottato una risoluzione per stabilire i primi meccanismi internazionali — un Panel Scientifico Internazionale Indipendente sull’IA e un Dialogo Globale sulla Governance dell’IA — destinati a governare la tecnologia, concordati come parte del Global Digital Compact al Summit del Futuro di settembre. Questa risoluzione non vincolante segna un primo passo positivo verso potenziali regolamentazioni più forti. Tuttavia, il suo processo di negoziazione ha rivelato profonde fratture geopolitiche.

Attraverso la sua Iniziativa Globale per la Governance dell’IA, la Cina sostiene un approccio guidato dallo stato che esclude completamente la società civile dalle discussioni sulla governance, posizionandosi come leader del sud globale. In questo contesto, lo sviluppo dell’IA viene presentato come uno strumento per il progresso economico e obiettivi sociali, offrendo questa visione come alternativa alla predominanza tecnologica occidentale.

Nel frattempo, gli Stati Uniti sotto Donald Trump hanno abbracciato il tecnonazionalismo, trattando l’IA come uno strumento di leva economica e geopolitica. Decisioni recenti, tra cui una tariffa del 100% sulle IA importate e l’acquisto di una partecipazione del 10% nel produttore di chip Intel, segnalano un ritiro dalla cooperazione multilaterale a favore di accordi bilaterali transazionali.

L’Unione Europea ha adottato un approccio diverso, implementando il primo AI Act completo al mondo, che entrerà in vigore nell’agosto del 2026. Il suo quadro normativo basato sul rischio rappresenta un progresso, vietando i sistemi di IA considerati “inaccettabili” e richiedendo misure di trasparenza per altri. Tuttavia, la legislazione presenta lacune preoccupanti.

Problemi e lacune dell’AI Act

Inizialmente era proposta una vietazione incondizionata della tecnologia di riconoscimento facciale in tempo reale, ma la versione finale dell’AI Act consente un uso limitato con salvaguardie che i gruppi per i diritti umani giudicano inadeguate. Inoltre, mentre le tecnologie di riconoscimento delle emozioni sono vietate in scuole e luoghi di lavoro, rimangono consentite per le forze dell’ordine e il controllo dell’immigrazione, una decisione particolarmente preoccupante vista la documentata parzialità razziale dei sistemi esistenti.

La coalizione ProtectNotSurveil ha avvertito che i migranti e le minoranze razziali in Europa sono utilizzati come campi di prova per strumenti di sorveglianza e tracciamento potenziati dall’IA. Infine, l’AI Act esenta i sistemi utilizzati per scopi di sicurezza nazionale e droni autonomi impiegati in guerra.

Impatto ambientale e necessità di governance

Le crescenti conseguenze climatiche e ambientali dello sviluppo dell’IA aggiungono un ulteriore livello di urgenza alle domande di governance. Le interazioni con i chatbot dell’IA consumano circa 10 volte più elettricità rispetto alle ricerche internet standard. L’Agenzia Internazionale dell’Energia prevede che il consumo di elettricità dei data center globali raddoppierà entro il 2030, con l’IA che guiderà gran parte di questo aumento. Le emissioni di Microsoft sono aumentate del 29% dal 2020 a causa delle infrastrutture legate all’IA, mentre Google ha rimosso silenziosamente il suo impegno per le emissioni nette zero dal proprio sito web, poiché le operazioni legate all’IA hanno aumentato la sua impronta di carbonio del 48% tra il 2019 e il 2023.

Lo sviluppo dell’IA sta guidando la costruzione di nuove centrali a gas e ritardando i piani per dismettere gli impianti a carbone, in diretta contraddizione con la necessità di porre fine all’uso di combustibili fossili per limitare l’aumento della temperatura globale.

Necessità di campioni per un futuro migliore

Il patchwork attuale di normative regionali, risoluzioni internazionali non vincolanti e autoregolamentazione industriale poco rigorosa è ben lontano da quanto necessario per governare una tecnologia con implicazioni globali così profonde. L’interesse personale degli stati continua a prevalere sui bisogni umani collettivi e sui diritti universali, mentre le aziende che possiedono sistemi di IA accumulano un potere immenso, per lo più non controllato.

Il percorso da seguire richiede un riconoscimento che la governance dell’IA non è semplicemente una questione tecnica o economica — si tratta di distribuzione del potere e responsabilità. Qualsiasi quadro normativo che non affronti la concentrazione delle capacità di IA nelle mani di pochi giganti tecnologici sarà inevitabilmente insufficiente. Gli approcci che escludono le voci della società civile o che danno priorità al vantaggio competitivo nazionale rispetto alla protezione dei diritti umani si dimostreranno inadeguati di fronte alla sfida.

La comunità internazionale deve urgentemente rafforzare i meccanismi di governance dell’IA, a partire da accordi vincolanti sui sistemi di armi autonome letali che sono bloccati nelle discussioni dell’ONU da oltre un decennio. L’UE dovrebbe chiudere le lacune nel suo AI Act, in particolare riguardo alle applicazioni militari e alle tecnologie di sorveglianza. I governi di tutto il mondo devono stabilire meccanismi di coordinamento che possano contrastare efficacemente il controllo dei giganti tecnologici sullo sviluppo e sul dispiegamento dell’IA.

La società civile non deve affrontare da sola questa lotta. Qualsiasi speranza di un cambiamento verso una governance dell’IA incentrata sui diritti umani dipende dalla comparsa di campioni all’interno del sistema internazionale che diano priorità ai diritti umani rispetto agli interessi nazionali ristretti e ai profitti aziendali. Con lo sviluppo dell’IA che accelera rapidamente, non c’è tempo da perdere.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...