Avviare la Conformità con il Regolamento UE sull’IA

Quattro Modi per Avviare la Conformità con il Regolamento UE sull’IA

Il Regolamento sull’Intelligenza Artificiale (AI Act) dell’Unione Europea rappresenta la prima regolamentazione completa al mondo riguardante l’IA, destinata a influenzare le aziende ben oltre i confini europei. Questa legge complessa governa lo sviluppo, l’implementazione e l’uso di sistemi di intelligenza artificiale e modelli di IA di uso generale all’interno dell’UE. Tuttavia, ha anche una portata extraterritoriale e imporrà obblighi a molte organizzazioni con sede negli Stati Uniti che sviluppano, vendono o utilizzano tecnologie di IA.

Come Prepararsi alla Conformità negli Stati Uniti

Il Regolamento sull’IA adotta un approccio a fasi. Il primo insieme di obblighi, riguardanti l’uso di pratiche di IA proibite e la alfabetizzazione nell’IA, è entrato in vigore a febbraio 2025. I requisiti per i fornitori di modelli di IA di uso generale (GPAI) entreranno in vigore il 2 agosto 2025, mentre molte delle regole restanti sono programmate per entrare in vigore il 2 agosto 2026. È ora di dare il via al percorso di conformità delle aziende statunitensi. Di seguito sono elencati quattro passi chiave per prepararsi a questa nuova legge.

1. Determinare se la propria organizzazione rientra nell’ambito di applicazione

Il primo passo consiste nel determinare se la propria organizzazione rientra nell’ambito di applicazione del Regolamento sull’IA. Questo regolamento si applica ampiamente ai fornitori, distributori e utilizzatori di sistemi di IA che operano nell’UE. Ha anche una portata extraterritoriale, estendendosi alle organizzazioni al di fuori dell’UE che (1) immettono sistemi di IA nel mercato dell’UE o li mettono in servizio all’interno dell’UE, oppure (2) consentono l’uso di output di IA da parte di individui situati nell’UE (fatti salvi alcuni eccezioni). Data questa ampia portata, gli obblighi di conformità possono applicarsi a un’ampia gamma di entità statunitensi in vari settori, inclusi fornitori di servizi cloud, fornitori di sicurezza e aziende che offrono servizi come verifiche di identità, strumenti HR, chatbot per il servizio clienti, rilevamento delle minacce e sistemi decisionali guidati dall’IA.

2. Identificare dove si collocano i sistemi di IA nel panorama del rischio e se sono GPAI

Se la propria organizzazione è coperta, il passo successivo è comprendere come il proprio prodotto si inserisce nel panorama del rischio delineato dal Regolamento sull’IA, che classifica i sistemi di IA in base al rischio inaccettabile, alto, limitato o minimo. Questa classificazione è essenziale poiché ogni livello ha obblighi distinti. Le organizzazioni dovrebbero fare un inventario dei sistemi di IA attualmente in uso o in fase di sviluppo e valutare quali sistemi rientrano in quale categoria per identificare i requisiti applicabili. Le organizzazioni dovrebbero prestare particolare attenzione a identificare i prodotti che potrebbero essere considerati ad alto rischio o potenzialmente proibiti ai sensi della legge.

Una breve descrizione dei livelli e dei loro rispettivi obblighi è la seguente:

  • Il Regolamento proibisce l’uso di sistemi di IA in relazione a pratiche specifiche che comportano un rischio inaccettabile, come la valutazione sociale da parte dei governi o la sorveglianza biometrica in tempo reale.
  • I sistemi ad alto rischio, come quelli utilizzati nelle infrastrutture critiche, nel reclutamento, nell’istruzione, nelle assicurazioni sulla vita, nell’applicazione della legge o nella verifica dell’identità, sono soggetti a rigorosi requisiti normativi. Gli obblighi per i fornitori di questi sistemi includono valutazioni obbligatorie dei rischi, documentazione tecnica dettagliata, meccanismi di supervisione umana e controlli di sicurezza informatica e governance dei dati.
  • Alcuni sistemi di IA a rischio limitato devono conformarsi a requisiti minimi di trasparenza e/o marcatura. Questi obblighi ricadono principalmente sui sistemi di IA progettati per interagire direttamente con le persone.
  • I sistemi di IA a rischio minimo potrebbero essere coperti da futuri codici di condotta volontari da stabilire.

Il Regolamento ha anche regole specifiche per i GPAI, che entreranno in vigore il 2 agosto 2025 e si applicano anche a quei modelli immessi sul mercato o messi in servizio prima di tale data. Questi modelli sono addestrati con una grande quantità di dati utilizzando l’auto-supervisione su larga scala, mostrando una significativa generalità e capaci di svolgere in modo competente una vasta gamma di compiti distinti. Il Regolamento impone regole più severe (ad esempio, valutazioni dei modelli, piani di mitigazione dei rischi, segnalazione di incidenti e misure di sicurezza informatica migliorate) per i modelli che comportano rischi sistemici.

3. Progettare un programma di governance e adottare misure verso la conformità

Completata l’analisi di applicabilità e l’inventario dei sistemi di IA, la propria organizzazione dovrebbe eseguire una valutazione delle lacune rispetto alle misure di conformità esistenti. Da lì, è possibile identificare i passi che devono ancora essere compiuti. Creare playbook interfunzionali per la classificazione, la trasparenza e la supervisione porterà vantaggi man mano che il Regolamento entrerà in vigore e l’applicazione avrà inizio. Esempi delle misure che le organizzazioni dovrebbero intraprendere per prontezza alla conformità includono:

  • Governance Interna: Costituire comitati di governance interna per l’IA per monitorare i casi d’uso, aggiornare i registri dei rischi e coinvolgere i team legali, di conformità e di sicurezza.
  • Documentazione dei Rischi e Controlli Tecnici: Mantenere una documentazione dettagliata per i sistemi di IA, in particolare per quelli categorizzati come ad alto rischio. Implementare controlli tecnici ed eseguire regolari valutazioni dei rischi in linea con i requisiti del Regolamento.
  • Meccanismi di Supervisione Umana: Garantire che il personale qualificato possa comprendere, monitorare e, se necessario, sovrascrivere i processi decisionali automatizzati per soddisfare i requisiti di supervisione umana del Regolamento.
  • Supervisione dei Terzi e Alfabetizzazione nell’IA: Coinvolgere fornitori, partner e appaltatori per confermare che mantengano livelli appropriati di governance e alfabetizzazione nell’IA, specialmente dove i loro strumenti o servizi sono coperti dal Regolamento o sono integrati nei propri sistemi di IA o GPAI.
  • Programmi di Formazione e Sensibilizzazione: Implementare un programma di formazione sull’IA a livello organizzativo con moduli avanzati dedicati ai dipendenti direttamente coinvolti nello sviluppo, nell’implementazione o nella supervisione dell’IA.
  • Prontezza Cyber: Sebbene il Regolamento non specifichi misure di protezione dei dati specifiche, questo esercizio fornisce una buona opportunità per rivedere e aggiornare le pratiche di dati e sicurezza informatica dell’organizzazione. Le organizzazioni potrebbero avere obblighi esistenti riguardo ai principi di protezione dei dati dell’UE, come la minimizzazione dei dati, la limitazione della finalità e la raccolta lecita dei dati, in particolare quando gestiscono dati di residenti nell’UE. Aggiungere l’IA al mix di prodotti e servizi potrebbe aggiungere complessità, poiché potrebbero essere necessarie misure di sicurezza aggiuntive per prevenire attacchi avversari, manipolazione dei modelli e accesso non autorizzato, in particolare per i sistemi ad alto rischio.

4. Tenere d’occhio gli Stati Uniti (e altre giurisdizioni)

Negli Stati Uniti non esiste ancora una regolamentazione nazionale sull’IA analoga al Regolamento sull’IA; tuttavia, ciò non significa che le aziende possano ignorare gli sviluppi domestici. Sebbene sia l’Amministrazione Biden che quella Trump abbiano emesso ordini esecutivi sull’IA, la formulazione delle politiche federali è ancora nelle fasi iniziali. Tuttavia, ci sono molte attività a livello statale. Un robusto programma di conformità dovrebbe monitorare le leggi federali e statali emergenti e considerare come interagiscono con il Regolamento sull’IA.

Un esempio notevole di legge statale statunitense è il Colorado Artificial Intelligence Act, approvato nel 2024 e programmato per entrare in vigore nel 2026. Come il Regolamento sull’IA, utilizza un approccio basato sul rischio e impone obblighi ai sviluppatori e ai distributori di sistemi di IA ad alto rischio. Ma ci sono anche differenze chiave rispetto al Regolamento, come il fatto che la legge del Colorado sia più limitata nella portata e definisca il rischio alto in modo più generale, piuttosto che codificare usi specifici come ad alto rischio.

Le organizzazioni dovrebbero anche tenere d’occhio altri mercati, poiché altre giurisdizioni potrebbero seguire l’esempio dell’UE nella regolamentazione dell’IA.

Conclusione

La preparazione dovrebbe iniziare ora, poiché la data di entrata in vigore del 2 agosto 2025 si avvicina rapidamente. Questi passi aiuteranno i professionisti interni a rendere operative queste esigenze legali e garantire la conformità, anche in un panorama legale in rapida evoluzione.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...