Quattro Modi per Avviare la Conformità con il Regolamento UE sull’IA
Il Regolamento sull’Intelligenza Artificiale (AI Act) dell’Unione Europea rappresenta la prima regolamentazione completa al mondo riguardante l’IA, destinata a influenzare le aziende ben oltre i confini europei. Questa legge complessa governa lo sviluppo, l’implementazione e l’uso di sistemi di intelligenza artificiale e modelli di IA di uso generale all’interno dell’UE. Tuttavia, ha anche una portata extraterritoriale e imporrà obblighi a molte organizzazioni con sede negli Stati Uniti che sviluppano, vendono o utilizzano tecnologie di IA.
Come Prepararsi alla Conformità negli Stati Uniti
Il Regolamento sull’IA adotta un approccio a fasi. Il primo insieme di obblighi, riguardanti l’uso di pratiche di IA proibite e la alfabetizzazione nell’IA, è entrato in vigore a febbraio 2025. I requisiti per i fornitori di modelli di IA di uso generale (GPAI) entreranno in vigore il 2 agosto 2025, mentre molte delle regole restanti sono programmate per entrare in vigore il 2 agosto 2026. È ora di dare il via al percorso di conformità delle aziende statunitensi. Di seguito sono elencati quattro passi chiave per prepararsi a questa nuova legge.
1. Determinare se la propria organizzazione rientra nell’ambito di applicazione
Il primo passo consiste nel determinare se la propria organizzazione rientra nell’ambito di applicazione del Regolamento sull’IA. Questo regolamento si applica ampiamente ai fornitori, distributori e utilizzatori di sistemi di IA che operano nell’UE. Ha anche una portata extraterritoriale, estendendosi alle organizzazioni al di fuori dell’UE che (1) immettono sistemi di IA nel mercato dell’UE o li mettono in servizio all’interno dell’UE, oppure (2) consentono l’uso di output di IA da parte di individui situati nell’UE (fatti salvi alcuni eccezioni). Data questa ampia portata, gli obblighi di conformità possono applicarsi a un’ampia gamma di entità statunitensi in vari settori, inclusi fornitori di servizi cloud, fornitori di sicurezza e aziende che offrono servizi come verifiche di identità, strumenti HR, chatbot per il servizio clienti, rilevamento delle minacce e sistemi decisionali guidati dall’IA.
2. Identificare dove si collocano i sistemi di IA nel panorama del rischio e se sono GPAI
Se la propria organizzazione è coperta, il passo successivo è comprendere come il proprio prodotto si inserisce nel panorama del rischio delineato dal Regolamento sull’IA, che classifica i sistemi di IA in base al rischio inaccettabile, alto, limitato o minimo. Questa classificazione è essenziale poiché ogni livello ha obblighi distinti. Le organizzazioni dovrebbero fare un inventario dei sistemi di IA attualmente in uso o in fase di sviluppo e valutare quali sistemi rientrano in quale categoria per identificare i requisiti applicabili. Le organizzazioni dovrebbero prestare particolare attenzione a identificare i prodotti che potrebbero essere considerati ad alto rischio o potenzialmente proibiti ai sensi della legge.
Una breve descrizione dei livelli e dei loro rispettivi obblighi è la seguente:
- Il Regolamento proibisce l’uso di sistemi di IA in relazione a pratiche specifiche che comportano un rischio inaccettabile, come la valutazione sociale da parte dei governi o la sorveglianza biometrica in tempo reale.
- I sistemi ad alto rischio, come quelli utilizzati nelle infrastrutture critiche, nel reclutamento, nell’istruzione, nelle assicurazioni sulla vita, nell’applicazione della legge o nella verifica dell’identità, sono soggetti a rigorosi requisiti normativi. Gli obblighi per i fornitori di questi sistemi includono valutazioni obbligatorie dei rischi, documentazione tecnica dettagliata, meccanismi di supervisione umana e controlli di sicurezza informatica e governance dei dati.
- Alcuni sistemi di IA a rischio limitato devono conformarsi a requisiti minimi di trasparenza e/o marcatura. Questi obblighi ricadono principalmente sui sistemi di IA progettati per interagire direttamente con le persone.
- I sistemi di IA a rischio minimo potrebbero essere coperti da futuri codici di condotta volontari da stabilire.
Il Regolamento ha anche regole specifiche per i GPAI, che entreranno in vigore il 2 agosto 2025 e si applicano anche a quei modelli immessi sul mercato o messi in servizio prima di tale data. Questi modelli sono addestrati con una grande quantità di dati utilizzando l’auto-supervisione su larga scala, mostrando una significativa generalità e capaci di svolgere in modo competente una vasta gamma di compiti distinti. Il Regolamento impone regole più severe (ad esempio, valutazioni dei modelli, piani di mitigazione dei rischi, segnalazione di incidenti e misure di sicurezza informatica migliorate) per i modelli che comportano rischi sistemici.
3. Progettare un programma di governance e adottare misure verso la conformità
Completata l’analisi di applicabilità e l’inventario dei sistemi di IA, la propria organizzazione dovrebbe eseguire una valutazione delle lacune rispetto alle misure di conformità esistenti. Da lì, è possibile identificare i passi che devono ancora essere compiuti. Creare playbook interfunzionali per la classificazione, la trasparenza e la supervisione porterà vantaggi man mano che il Regolamento entrerà in vigore e l’applicazione avrà inizio. Esempi delle misure che le organizzazioni dovrebbero intraprendere per prontezza alla conformità includono:
- Governance Interna: Costituire comitati di governance interna per l’IA per monitorare i casi d’uso, aggiornare i registri dei rischi e coinvolgere i team legali, di conformità e di sicurezza.
- Documentazione dei Rischi e Controlli Tecnici: Mantenere una documentazione dettagliata per i sistemi di IA, in particolare per quelli categorizzati come ad alto rischio. Implementare controlli tecnici ed eseguire regolari valutazioni dei rischi in linea con i requisiti del Regolamento.
- Meccanismi di Supervisione Umana: Garantire che il personale qualificato possa comprendere, monitorare e, se necessario, sovrascrivere i processi decisionali automatizzati per soddisfare i requisiti di supervisione umana del Regolamento.
- Supervisione dei Terzi e Alfabetizzazione nell’IA: Coinvolgere fornitori, partner e appaltatori per confermare che mantengano livelli appropriati di governance e alfabetizzazione nell’IA, specialmente dove i loro strumenti o servizi sono coperti dal Regolamento o sono integrati nei propri sistemi di IA o GPAI.
- Programmi di Formazione e Sensibilizzazione: Implementare un programma di formazione sull’IA a livello organizzativo con moduli avanzati dedicati ai dipendenti direttamente coinvolti nello sviluppo, nell’implementazione o nella supervisione dell’IA.
- Prontezza Cyber: Sebbene il Regolamento non specifichi misure di protezione dei dati specifiche, questo esercizio fornisce una buona opportunità per rivedere e aggiornare le pratiche di dati e sicurezza informatica dell’organizzazione. Le organizzazioni potrebbero avere obblighi esistenti riguardo ai principi di protezione dei dati dell’UE, come la minimizzazione dei dati, la limitazione della finalità e la raccolta lecita dei dati, in particolare quando gestiscono dati di residenti nell’UE. Aggiungere l’IA al mix di prodotti e servizi potrebbe aggiungere complessità, poiché potrebbero essere necessarie misure di sicurezza aggiuntive per prevenire attacchi avversari, manipolazione dei modelli e accesso non autorizzato, in particolare per i sistemi ad alto rischio.
4. Tenere d’occhio gli Stati Uniti (e altre giurisdizioni)
Negli Stati Uniti non esiste ancora una regolamentazione nazionale sull’IA analoga al Regolamento sull’IA; tuttavia, ciò non significa che le aziende possano ignorare gli sviluppi domestici. Sebbene sia l’Amministrazione Biden che quella Trump abbiano emesso ordini esecutivi sull’IA, la formulazione delle politiche federali è ancora nelle fasi iniziali. Tuttavia, ci sono molte attività a livello statale. Un robusto programma di conformità dovrebbe monitorare le leggi federali e statali emergenti e considerare come interagiscono con il Regolamento sull’IA.
Un esempio notevole di legge statale statunitense è il Colorado Artificial Intelligence Act, approvato nel 2024 e programmato per entrare in vigore nel 2026. Come il Regolamento sull’IA, utilizza un approccio basato sul rischio e impone obblighi ai sviluppatori e ai distributori di sistemi di IA ad alto rischio. Ma ci sono anche differenze chiave rispetto al Regolamento, come il fatto che la legge del Colorado sia più limitata nella portata e definisca il rischio alto in modo più generale, piuttosto che codificare usi specifici come ad alto rischio.
Le organizzazioni dovrebbero anche tenere d’occhio altri mercati, poiché altre giurisdizioni potrebbero seguire l’esempio dell’UE nella regolamentazione dell’IA.
Conclusione
La preparazione dovrebbe iniziare ora, poiché la data di entrata in vigore del 2 agosto 2025 si avvicina rapidamente. Questi passi aiuteranno i professionisti interni a rendere operative queste esigenze legali e garantire la conformità, anche in un panorama legale in rapida evoluzione.