Governanza dell’IA: Diritti Umani al Centro della Discussione

Gli sforzi di governance dell’AI si concentrano sui diritti umani

I rapidi progressi nell’AI stanno costringendo i leader globali a confrontarsi con domande scomode riguardanti il potere, la responsabilità e la protezione delle libertà fondamentali in un mondo sempre più automatizzato.

Il Forum di Governance di Internet 2025

Durante il Forum di Governance di Internet 2025 a Lillestrøm, Norvegia, un’importante sessione ha messo in luce il lancio della Dichiarazione Congiunta aggiornata della Coalizione per la Libertà Online (FOC) sull’Intelligenza Artificiale e i Diritti Umani. Sostenuta da 21 paesi e in continua crescita, la dichiarazione delinea una visione per una governance dell’AI incentrata sull’essere umano, radicata nel diritto internazionale sui diritti umani.

La necessità di un approccio collettivo

I rappresentanti di governi, della società civile e dell’industria tecnologica, tra cui i Paesi Bassi, la Germania, il Ghana, l’Estonia e Microsoft, si sono riuniti per sottolineare l’urgente necessità di un approccio collettivo e multistakeholder per affrontare i reali e presenti rischi che l’AI pone a diritti quali la privacy, la libertà di espressione e la partecipazione democratica.

Le avvertenze dei rappresentanti

L’ambasciatore dei Paesi Bassi, Ernst Noorman, ha avvertito che i diritti umani e la sicurezza devono essere visti come interconnessi, sottolineando che un utilizzo non regolamentato dell’AI può destabilizzare le società piuttosto che proteggerle. Le sue osservazioni hanno fatto eco alle dure lezioni apprese dai Paesi Bassi riguardo agli algoritmi di welfare biasati.

Altri relatori, tra cui l’Ambasciatore per la Cyber Sicurezza della Germania, Maria Adebahr, hanno sottolineato come l’AI venga utilizzata come strumento di repressione transnazionale, ribadendo il impegno della Germania raddoppiando i fondi per la FOC. Il capo della cybersecurity del Ghana, Divine Salese Agbeti, ha aggiunto che l’abuso dell’AI non è esclusivo dei governi: anche i cittadini hanno sfruttato la tecnologia per manipolazione e inganno.

Il contributo del settore privato

Dal settore privato, Dr. Erika Moret di Microsoft ha mostrato l’approccio multilivello dell’azienda per integrare i diritti umani nell’AI, dalla progettazione etica e valutazioni d’impatto al rifiuto di applicazioni ad alto rischio come il riconoscimento facciale in contesti autoritari. Ha sottolineato l’allineamento dell’azienda con i principi guida delle Nazioni Unite e la necessità di trasparenza, equità e inclusività.

Chiamata all’azione

La discussione ha anche messo in evidenza quadri globali vincolanti come l’EU AI Act e la Convenzione Quadro del Consiglio d’Europa, chiedendo la loro ampia adozione come strumenti vitali per gestire l’impatto globale dell’AI. La sessione si è conclusa con una chiamata all’azione condivisa: i governi devono utilizzare strumenti normativi e potere d’acquisto per far rispettare gli standard sui diritti umani nell’AI, mentre il settore privato e la società civile devono spingere per responsabilità e inclusione.

La dichiarazione della FOC rimane aperta a nuove adesioni, fungendo da testo fondamentale nell’impegno continuo per allineare il futuro dell’AI con i diritti fondamentali di tutte le persone.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...