Governanza dell’IA: Diritti Umani al Centro della Discussione

Gli sforzi di governance dell’AI si concentrano sui diritti umani

I rapidi progressi nell’AI stanno costringendo i leader globali a confrontarsi con domande scomode riguardanti il potere, la responsabilità e la protezione delle libertà fondamentali in un mondo sempre più automatizzato.

Il Forum di Governance di Internet 2025

Durante il Forum di Governance di Internet 2025 a Lillestrøm, Norvegia, un’importante sessione ha messo in luce il lancio della Dichiarazione Congiunta aggiornata della Coalizione per la Libertà Online (FOC) sull’Intelligenza Artificiale e i Diritti Umani. Sostenuta da 21 paesi e in continua crescita, la dichiarazione delinea una visione per una governance dell’AI incentrata sull’essere umano, radicata nel diritto internazionale sui diritti umani.

La necessità di un approccio collettivo

I rappresentanti di governi, della società civile e dell’industria tecnologica, tra cui i Paesi Bassi, la Germania, il Ghana, l’Estonia e Microsoft, si sono riuniti per sottolineare l’urgente necessità di un approccio collettivo e multistakeholder per affrontare i reali e presenti rischi che l’AI pone a diritti quali la privacy, la libertà di espressione e la partecipazione democratica.

Le avvertenze dei rappresentanti

L’ambasciatore dei Paesi Bassi, Ernst Noorman, ha avvertito che i diritti umani e la sicurezza devono essere visti come interconnessi, sottolineando che un utilizzo non regolamentato dell’AI può destabilizzare le società piuttosto che proteggerle. Le sue osservazioni hanno fatto eco alle dure lezioni apprese dai Paesi Bassi riguardo agli algoritmi di welfare biasati.

Altri relatori, tra cui l’Ambasciatore per la Cyber Sicurezza della Germania, Maria Adebahr, hanno sottolineato come l’AI venga utilizzata come strumento di repressione transnazionale, ribadendo il impegno della Germania raddoppiando i fondi per la FOC. Il capo della cybersecurity del Ghana, Divine Salese Agbeti, ha aggiunto che l’abuso dell’AI non è esclusivo dei governi: anche i cittadini hanno sfruttato la tecnologia per manipolazione e inganno.

Il contributo del settore privato

Dal settore privato, Dr. Erika Moret di Microsoft ha mostrato l’approccio multilivello dell’azienda per integrare i diritti umani nell’AI, dalla progettazione etica e valutazioni d’impatto al rifiuto di applicazioni ad alto rischio come il riconoscimento facciale in contesti autoritari. Ha sottolineato l’allineamento dell’azienda con i principi guida delle Nazioni Unite e la necessità di trasparenza, equità e inclusività.

Chiamata all’azione

La discussione ha anche messo in evidenza quadri globali vincolanti come l’EU AI Act e la Convenzione Quadro del Consiglio d’Europa, chiedendo la loro ampia adozione come strumenti vitali per gestire l’impatto globale dell’AI. La sessione si è conclusa con una chiamata all’azione condivisa: i governi devono utilizzare strumenti normativi e potere d’acquisto per far rispettare gli standard sui diritti umani nell’AI, mentre il settore privato e la società civile devono spingere per responsabilità e inclusione.

La dichiarazione della FOC rimane aperta a nuove adesioni, fungendo da testo fondamentale nell’impegno continuo per allineare il futuro dell’AI con i diritti fondamentali di tutte le persone.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...