Rischi dell’IA: Regolamentazione a Confronto

Mitigazione dei rischi legati all’IA: approccio morbido, approccio duro o qualcosa nel mezzo?

Lo sviluppo di strumenti di intelligenza artificiale (IA) moderni spinge i confini etici sotto i quadri giuridici esistenti, non concepiti per adattarsi a tali innovazioni. Tuttavia, il modo in cui i regolatori scelgono di procedere varia notevolmente tra i diversi paesi e regioni.

Il recente AI Action Summit tenutosi a Parigi ha messo in evidenza queste differenze normative. La dichiarazione finale dell’evento si è concentrata su questioni di inclusività e apertura nello sviluppo dell’IA, menzionando solo in modo vago la sicurezza e l’affidabilità, senza enfatizzare rischi specifici legati all’IA, come le minacce alla sicurezza o i pericoli esistenziali. Redatta da 60 nazioni, la dichiarazione non è stata firmata né dagli Stati Uniti né dal Regno Unito, a dimostrazione di quanto poco consenso ci sia in questo campo.

Come i diversi regolatori affrontano i rischi dell’IA

I paesi e le regioni differiscono nel modo in cui regolano lo sviluppo e l’implementazione dell’IA. Tuttavia, la maggior parte si colloca tra i due poli rappresentati dagli Stati Uniti, da un lato, e dall’Unione Europea, dall’altro.

Il modo degli Stati Uniti: innovare prima, regolare dopo

Negli Stati Uniti non esistono atti federali che regolano specificamente l’IA; si fa invece affidamento su linee guida volontarie e soluzioni di mercato. Tra i principali provvedimenti legislativi troviamo il National AI Initiative Act, che mira a coordinare la ricerca federale sull’IA, il Federal Aviation Administration Reauthorization Act, e il framework di gestione del rischio volontario del National Institute of Standards and Technology (NIST).

Nel mese di ottobre 2023, il presidente Biden ha emesso un ordine esecutivo sull’IA sicura, sicura e affidabile, stabilendo standard per le infrastrutture critiche e regolando i progetti di IA finanziati a livello federale. Tuttavia, il panorama normativo statunitense rimane fluido e soggetto a cambiamenti politici. Nel gennaio 2025, il presidente Trump ha revocato l’ordine esecutivo di Biden, segnalando un possibile spostamento verso la promozione dell’innovazione e lontano dalla regolamentazione.

Le critiche all’approccio statunitense includono la sua natura frammentata, che porta a una rete complessa di norme, la mancanza di standard vincolanti e le lacune nella protezione della privacy. Tuttavia, l’approccio laissez-faire alla regolamentazione dell’IA potrebbe cambiare in futuro. Nel 2024, i legislatori statali hanno introdotto quasi 700 proposte di legge sull’IA e ci sono state numerose audizioni su IA e governance, IA e proprietà intellettuale, ecc. Ciò dimostra che il governo statunitense non si tira indietro di fronte alla regolamentazione, ma cerca modi per implementarla senza compromettere eccessivamente l’innovazione.

Il modo dell’UE: approccio alla prevenzione dei danni

L’Unione Europea ha adottato un approccio molto diverso. Nell’agosto 2024, il Parlamento e il Consiglio europeo hanno introdotto il Regolamento sull’Intelligenza Artificiale (AI Act), ampiamente considerato la normativa più completa sull’IA fino ad oggi. Adottando un approccio basato sul rischio, il regolamento impone le norme più severe sui sistemi di IA ad alta sensibilità, ad esempio quelli utilizzati in sanità e infrastrutture critiche, mentre le applicazioni a basso rischio affrontano solo una supervisione minima. Certi utilizzi, come i sistemi di scoring sociale gestiti dal governo, sono esplicitamente proibiti.

Simile al GDPR, il regolamento richiede conformità non solo all’interno dei confini dell’UE, ma anche da qualsiasi fornitore, distributore o utente di sistemi di IA operanti nell’UE o che offrono soluzioni di IA al suo mercato (anche se il sistema è stato sviluppato all’esterno). Ciò può presentare alcune sfide per i fornitori non europei di prodotti integrati. Le critiche all’approccio dell’UE includono la presunta mancanza di un gold standard per i diritti umani, la complessità eccessiva e la mancanza di chiarezza, oltre a requisiti tecnici molto esigenti in un momento in cui l’UE cerca di rafforzare la propria competitività.

Terreno comune normativo

Il Regno Unito ha adottato un quadro leggero situato tra l’UE e gli Stati Uniti. Il quadro si basa su alcuni principi e valori fondamentali come la sicurezza, l’equità e la trasparenza. I regolatori esistenti, come l’Information Commissioner’s Office, sono autorizzati a implementare questi principi nei rispettivi settori.

Nel novembre 2023, il Regno Unito ha fondato l’AI Safety Institute (AISI), evolutosi dal Frontier AI Taskforce. L’AISI ha il compito di valutare la sicurezza dei modelli di IA avanzati, collaborando con i principali sviluppatori di IA per condurre test di sicurezza e promuovere standard internazionali. Il governo del Regno Unito ha anche pubblicato un Piano d’Azione sulle Opportunità dell’IA, delineando misure per investire nelle basi dell’IA, implementare l’adozione dell’IA in tutti i settori e promuovere sistemi di IA “made in home”. Le critiche all’approccio del Regno Unito alla regolamentazione dell’IA includono capacità di enforcement limitate (“tanti occhi, poche mani”), mancanza di coordinamento tra la legislazione settoriale e assenza di un’autorità regolamentare centrale.

Altri paesi importanti hanno trovato il proprio posto in qualche modo lungo lo spettro USA-UE. Il Canada ha introdotto un approccio basato sul rischio con il proposto Artificial Intelligence and Data Act (AIDA), progettato per bilanciare l’innovazione con la sicurezza e considerazioni etiche. Il Giappone ha enfatizzato un approccio incentrato sull’uomo per l’IA, pubblicando linee guida per promuovere uno sviluppo affidabile.

In Cina, la regolamentazione dell’IA è strettamente controllata dallo stato, con leggi recenti che richiedono ai modelli di IA generativa di allinearsi ai valori socialisti e di sottoporsi a valutazioni di sicurezza. L’Australia, nel frattempo, ha rilasciato un quadro etico per l’IA ed è in fase di esplorazione di aggiornamenti alle proprie leggi sulla privacy per affrontare le sfide emergenti.

Stabilire cooperazione internazionale

Con l’evoluzione della tecnologia dell’IA, le differenze tra gli approcci normativi diventeranno sempre più evidenti. Qualunque sia l’approccio individuale che alcuni paesi adottano riguardo alla privacy dei dati, alla protezione del copyright e ad altri aspetti, è necessaria una maggiore coerenza a livello globale sui rischi chiave legati all’IA. La cooperazione internazionale è cruciale per stabilire standard di base che affrontino i rischi principali e promuovano l’innovazione.

Attualmente, organizzazioni globali come l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), le Nazioni Unite e altre stanno lavorando per stabilire standard internazionali e linee guida etiche per l’IA. La strada da percorrere richiede che tutti i soggetti coinvolti nell’industria trovino un terreno comune. E considerando che l’innovazione si muove a velocità elevata, è fondamentale discutere e concordare ora.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...