La leadership dell’UE nella regolamentazione dell’IA

La UE è un Pioniere e l’AI Act lo Dimostra

Il 2 agosto 2025 ha segnato l’entrata in vigore di una nuova serie di regole come parte dell’AI Act dell’UE, la prima legislazione globale completa sull’IA, che viene implementata in fasi graduali. Come il GDPR per la privacy dei dati negli anni 2010, l’AI Act si propone di diventare il modello globale per la governance della tecnologia trasformativa dell’IA per i prossimi decenni.

Recenti notizie riguardanti un’azione legale contro OpenAI, da parte dei genitori di un ragazzo di 16 anni, Adam Raine, che si è tolto la vita dopo mesi di utilizzo intensivo di ChatGPT, hanno messo in evidenza il potenziale di danno e la necessità di regolare questa tecnologia.

Struttura dell’AI Act

L’AI Act segue un approccio di gestione del rischio; mira a regolare la trasparenza e la responsabilità per i sistemi di IA e i loro sviluppatori. Anche se è stato promulgato nel 2024, la prima ondata di applicazione è stata implementata lo scorso febbraio, coprendo rischi inaccettabili che includono sistemi di IA considerati una chiara minaccia per la sicurezza sociale.

La seconda ondata, attuata questo mese, riguarda i modelli di IA di uso generale (GPAI) e rappresenta, senza dubbio, la più importante in termini di portata. Le prossime fasi sono attese per agosto 2026 (sistemi ad alto rischio) e agosto 2027 (ultimi passi di attuazione).

Obblighi per i Fornitori di GPAI

Dal 2 agosto 2025, i fornitori di GPAI devono rispettare obblighi di trasparenza e copyright quando immettono i loro modelli nel mercato dell’UE. Ciò si applica non solo alle aziende con sede nell’UE, ma a qualsiasi organizzazione con operazioni nell’UE. I modelli GPAI già presenti sul mercato prima del 2 agosto 2025 devono garantire la conformità entro il 2 agosto 2027.

Per legge, i modelli GPAI includono quelli addestrati con oltre 10^23 operazioni in virgola mobile (FLOP) e capaci di generare linguaggio (testo o audio), testo-immagine o testo-video.

I fornitori di sistemi GPAI devono mantenere documentazione tecnica riguardante il modello, inclusa una sintesi dettagliata del suo corpus di addestramento. Inoltre, devono implementare una politica per conformarsi alla legge sul copyright dell’UE.

Rischi Sistemici e Esenzioni

All’interno del gruppo di modelli GPAI, esiste un livello speciale considerato di rischio sistemico, composto da modelli molto avanzati sviluppati solo da pochi fornitori. Le aziende in questo livello affrontano obblighi aggiuntivi, come notificare la Commissione Europea quando sviluppano un modello ritenuto a rischio sistemico e prendere misure per garantire la sicurezza e la protezione del modello.

La classificazione dei modelli che pongono rischi sistemici può cambiare nel tempo man mano che la tecnologia evolve. Ci sono eccezioni: l’IA utilizzata per scopi di sicurezza nazionale, militari e di difesa è esente dalla legge. Alcuni sistemi open-source sono anche al di fuori della portata della legislazione, così come i modelli di IA sviluppati utilizzando codice disponibile pubblicamente.

Critiche all’AI Act

L’AI Act ha suscitato critiche per il suo impatto sproporzionato su startup e PMI, con alcuni esperti che sostengono che dovrebbe includere eccezioni per tecnologie che non hanno ancora un’ampia diffusione nel pubblico e non comportano un grande impatto o potenziale di danno. Altri affermano che potrebbe rallentare i progressi tra le organizzazioni europee nel processo di addestramento dei loro modelli di IA, e che le regole sono confuse.

Lo scorso luglio, diversi gruppi di pressione tecnologici, tra cui CCIA Europe, hanno sollecitato l’UE a fermare l’implementazione della legge, sostenendo che il lancio fosse stato troppo affrettato, senza considerare le potenziali conseguenze.

Tuttavia, l’AI Act è stato sviluppato in collaborazione con migliaia di stakeholder del settore privato, in un momento in cui le aziende cercano disperatamente linee guida normative. Introduce anche pratiche di sicurezza standard in tutta l’UE, in un periodo critico di adozione. Sta stabilendo un benchmark globale per altri da seguire in un momento di grande tumulto. Dopo l’AI Act, gli Stati Uniti e altri paesi troveranno sempre più difficile continuare a ignorare le richieste di un’IA più responsabile, un sforzo encomiabile che entrerà nella storia.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...