Governance dell’IA: Diritti umani in bilico mentre i giganti tecnologici e gli autoritari si incontrano
Gli algoritmi decidono chi vive e muore nella Striscia di Gaza. La sorveglianza potenziata dall’intelligenza artificiale (IA) traccia i giornalisti in Serbia. Armi autonome vengono sfilate per le strade di Pechino in dimostrazioni di potenza tecnologica. Questa non è fantascienza distopica; è la realtà di oggi. Con il cambiamento del mondo da parte dell’IA, la questione di chi controlla questa tecnologia e come viene governata è diventata una priorità urgente.
Fallimenti della governance
Il mese scorso, l’Assemblea Generale delle Nazioni Unite ha adottato una risoluzione per stabilire i primi meccanismi internazionali — un Panel Scientifico Internazionale Indipendente sull’IA e un Dialogo Globale sulla Governance dell’IA — destinati a governare la tecnologia, concordati come parte del Global Digital Compact al Summit del Futuro di settembre. Questa risoluzione non vincolante segna un primo passo positivo verso potenziali regolamentazioni più forti. Tuttavia, il suo processo di negoziazione ha rivelato profonde fratture geopolitiche.
Attraverso la sua Iniziativa Globale per la Governance dell’IA, la Cina sostiene un approccio guidato dallo stato che esclude completamente la società civile dalle discussioni sulla governance, posizionandosi come leader del sud globale. In questo contesto, lo sviluppo dell’IA viene presentato come uno strumento per il progresso economico e obiettivi sociali, offrendo questa visione come alternativa alla predominanza tecnologica occidentale.
Nel frattempo, gli Stati Uniti sotto Donald Trump hanno abbracciato il tecnonazionalismo, trattando l’IA come uno strumento di leva economica e geopolitica. Decisioni recenti, tra cui una tariffa del 100% sulle IA importate e l’acquisto di una partecipazione del 10% nel produttore di chip Intel, segnalano un ritiro dalla cooperazione multilaterale a favore di accordi bilaterali transazionali.
L’Unione Europea ha adottato un approccio diverso, implementando il primo AI Act completo al mondo, che entrerà in vigore nell’agosto del 2026. Il suo quadro normativo basato sul rischio rappresenta un progresso, vietando i sistemi di IA considerati “inaccettabili” e richiedendo misure di trasparenza per altri. Tuttavia, la legislazione presenta lacune preoccupanti.
Problemi e lacune dell’AI Act
Inizialmente era proposta una vietazione incondizionata della tecnologia di riconoscimento facciale in tempo reale, ma la versione finale dell’AI Act consente un uso limitato con salvaguardie che i gruppi per i diritti umani giudicano inadeguate. Inoltre, mentre le tecnologie di riconoscimento delle emozioni sono vietate in scuole e luoghi di lavoro, rimangono consentite per le forze dell’ordine e il controllo dell’immigrazione, una decisione particolarmente preoccupante vista la documentata parzialità razziale dei sistemi esistenti.
La coalizione ProtectNotSurveil ha avvertito che i migranti e le minoranze razziali in Europa sono utilizzati come campi di prova per strumenti di sorveglianza e tracciamento potenziati dall’IA. Infine, l’AI Act esenta i sistemi utilizzati per scopi di sicurezza nazionale e droni autonomi impiegati in guerra.
Impatto ambientale e necessità di governance
Le crescenti conseguenze climatiche e ambientali dello sviluppo dell’IA aggiungono un ulteriore livello di urgenza alle domande di governance. Le interazioni con i chatbot dell’IA consumano circa 10 volte più elettricità rispetto alle ricerche internet standard. L’Agenzia Internazionale dell’Energia prevede che il consumo di elettricità dei data center globali raddoppierà entro il 2030, con l’IA che guiderà gran parte di questo aumento. Le emissioni di Microsoft sono aumentate del 29% dal 2020 a causa delle infrastrutture legate all’IA, mentre Google ha rimosso silenziosamente il suo impegno per le emissioni nette zero dal proprio sito web, poiché le operazioni legate all’IA hanno aumentato la sua impronta di carbonio del 48% tra il 2019 e il 2023.
Lo sviluppo dell’IA sta guidando la costruzione di nuove centrali a gas e ritardando i piani per dismettere gli impianti a carbone, in diretta contraddizione con la necessità di porre fine all’uso di combustibili fossili per limitare l’aumento della temperatura globale.
Necessità di campioni per un futuro migliore
Il patchwork attuale di normative regionali, risoluzioni internazionali non vincolanti e autoregolamentazione industriale poco rigorosa è ben lontano da quanto necessario per governare una tecnologia con implicazioni globali così profonde. L’interesse personale degli stati continua a prevalere sui bisogni umani collettivi e sui diritti universali, mentre le aziende che possiedono sistemi di IA accumulano un potere immenso, per lo più non controllato.
Il percorso da seguire richiede un riconoscimento che la governance dell’IA non è semplicemente una questione tecnica o economica — si tratta di distribuzione del potere e responsabilità. Qualsiasi quadro normativo che non affronti la concentrazione delle capacità di IA nelle mani di pochi giganti tecnologici sarà inevitabilmente insufficiente. Gli approcci che escludono le voci della società civile o che danno priorità al vantaggio competitivo nazionale rispetto alla protezione dei diritti umani si dimostreranno inadeguati di fronte alla sfida.
La comunità internazionale deve urgentemente rafforzare i meccanismi di governance dell’IA, a partire da accordi vincolanti sui sistemi di armi autonome letali che sono bloccati nelle discussioni dell’ONU da oltre un decennio. L’UE dovrebbe chiudere le lacune nel suo AI Act, in particolare riguardo alle applicazioni militari e alle tecnologie di sorveglianza. I governi di tutto il mondo devono stabilire meccanismi di coordinamento che possano contrastare efficacemente il controllo dei giganti tecnologici sullo sviluppo e sul dispiegamento dell’IA.
La società civile non deve affrontare da sola questa lotta. Qualsiasi speranza di un cambiamento verso una governance dell’IA incentrata sui diritti umani dipende dalla comparsa di campioni all’interno del sistema internazionale che diano priorità ai diritti umani rispetto agli interessi nazionali ristretti e ai profitti aziendali. Con lo sviluppo dell’IA che accelera rapidamente, non c’è tempo da perdere.