Governanza dell’IA: Diritti Umani al Centro della Discussione

Gli sforzi di governance dell’AI si concentrano sui diritti umani

I rapidi progressi nell’AI stanno costringendo i leader globali a confrontarsi con domande scomode riguardanti il potere, la responsabilità e la protezione delle libertà fondamentali in un mondo sempre più automatizzato.

Il Forum di Governance di Internet 2025

Durante il Forum di Governance di Internet 2025 a Lillestrøm, Norvegia, un’importante sessione ha messo in luce il lancio della Dichiarazione Congiunta aggiornata della Coalizione per la Libertà Online (FOC) sull’Intelligenza Artificiale e i Diritti Umani. Sostenuta da 21 paesi e in continua crescita, la dichiarazione delinea una visione per una governance dell’AI incentrata sull’essere umano, radicata nel diritto internazionale sui diritti umani.

La necessità di un approccio collettivo

I rappresentanti di governi, della società civile e dell’industria tecnologica, tra cui i Paesi Bassi, la Germania, il Ghana, l’Estonia e Microsoft, si sono riuniti per sottolineare l’urgente necessità di un approccio collettivo e multistakeholder per affrontare i reali e presenti rischi che l’AI pone a diritti quali la privacy, la libertà di espressione e la partecipazione democratica.

Le avvertenze dei rappresentanti

L’ambasciatore dei Paesi Bassi, Ernst Noorman, ha avvertito che i diritti umani e la sicurezza devono essere visti come interconnessi, sottolineando che un utilizzo non regolamentato dell’AI può destabilizzare le società piuttosto che proteggerle. Le sue osservazioni hanno fatto eco alle dure lezioni apprese dai Paesi Bassi riguardo agli algoritmi di welfare biasati.

Altri relatori, tra cui l’Ambasciatore per la Cyber Sicurezza della Germania, Maria Adebahr, hanno sottolineato come l’AI venga utilizzata come strumento di repressione transnazionale, ribadendo il impegno della Germania raddoppiando i fondi per la FOC. Il capo della cybersecurity del Ghana, Divine Salese Agbeti, ha aggiunto che l’abuso dell’AI non è esclusivo dei governi: anche i cittadini hanno sfruttato la tecnologia per manipolazione e inganno.

Il contributo del settore privato

Dal settore privato, Dr. Erika Moret di Microsoft ha mostrato l’approccio multilivello dell’azienda per integrare i diritti umani nell’AI, dalla progettazione etica e valutazioni d’impatto al rifiuto di applicazioni ad alto rischio come il riconoscimento facciale in contesti autoritari. Ha sottolineato l’allineamento dell’azienda con i principi guida delle Nazioni Unite e la necessità di trasparenza, equità e inclusività.

Chiamata all’azione

La discussione ha anche messo in evidenza quadri globali vincolanti come l’EU AI Act e la Convenzione Quadro del Consiglio d’Europa, chiedendo la loro ampia adozione come strumenti vitali per gestire l’impatto globale dell’AI. La sessione si è conclusa con una chiamata all’azione condivisa: i governi devono utilizzare strumenti normativi e potere d’acquisto per far rispettare gli standard sui diritti umani nell’AI, mentre il settore privato e la società civile devono spingere per responsabilità e inclusione.

La dichiarazione della FOC rimane aperta a nuove adesioni, fungendo da testo fondamentale nell’impegno continuo per allineare il futuro dell’AI con i diritti fondamentali di tutte le persone.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...