Gli sforzi di governance dell’AI si concentrano sui diritti umani
I rapidi progressi nell’AI stanno costringendo i leader globali a confrontarsi con domande scomode riguardanti il potere, la responsabilità e la protezione delle libertà fondamentali in un mondo sempre più automatizzato.
Il Forum di Governance di Internet 2025
Durante il Forum di Governance di Internet 2025 a Lillestrøm, Norvegia, un’importante sessione ha messo in luce il lancio della Dichiarazione Congiunta aggiornata della Coalizione per la Libertà Online (FOC) sull’Intelligenza Artificiale e i Diritti Umani. Sostenuta da 21 paesi e in continua crescita, la dichiarazione delinea una visione per una governance dell’AI incentrata sull’essere umano, radicata nel diritto internazionale sui diritti umani.
La necessità di un approccio collettivo
I rappresentanti di governi, della società civile e dell’industria tecnologica, tra cui i Paesi Bassi, la Germania, il Ghana, l’Estonia e Microsoft, si sono riuniti per sottolineare l’urgente necessità di un approccio collettivo e multistakeholder per affrontare i reali e presenti rischi che l’AI pone a diritti quali la privacy, la libertà di espressione e la partecipazione democratica.
Le avvertenze dei rappresentanti
L’ambasciatore dei Paesi Bassi, Ernst Noorman, ha avvertito che i diritti umani e la sicurezza devono essere visti come interconnessi, sottolineando che un utilizzo non regolamentato dell’AI può destabilizzare le società piuttosto che proteggerle. Le sue osservazioni hanno fatto eco alle dure lezioni apprese dai Paesi Bassi riguardo agli algoritmi di welfare biasati.
Altri relatori, tra cui l’Ambasciatore per la Cyber Sicurezza della Germania, Maria Adebahr, hanno sottolineato come l’AI venga utilizzata come strumento di repressione transnazionale, ribadendo il impegno della Germania raddoppiando i fondi per la FOC. Il capo della cybersecurity del Ghana, Divine Salese Agbeti, ha aggiunto che l’abuso dell’AI non è esclusivo dei governi: anche i cittadini hanno sfruttato la tecnologia per manipolazione e inganno.
Il contributo del settore privato
Dal settore privato, Dr. Erika Moret di Microsoft ha mostrato l’approccio multilivello dell’azienda per integrare i diritti umani nell’AI, dalla progettazione etica e valutazioni d’impatto al rifiuto di applicazioni ad alto rischio come il riconoscimento facciale in contesti autoritari. Ha sottolineato l’allineamento dell’azienda con i principi guida delle Nazioni Unite e la necessità di trasparenza, equità e inclusività.
Chiamata all’azione
La discussione ha anche messo in evidenza quadri globali vincolanti come l’EU AI Act e la Convenzione Quadro del Consiglio d’Europa, chiedendo la loro ampia adozione come strumenti vitali per gestire l’impatto globale dell’AI. La sessione si è conclusa con una chiamata all’azione condivisa: i governi devono utilizzare strumenti normativi e potere d’acquisto per far rispettare gli standard sui diritti umani nell’AI, mentre il settore privato e la società civile devono spingere per responsabilità e inclusione.
La dichiarazione della FOC rimane aperta a nuove adesioni, fungendo da testo fondamentale nell’impegno continuo per allineare il futuro dell’AI con i diritti fondamentali di tutte le persone.