La UE è un Pioniere e l’AI Act lo Dimostra
Il 2 agosto 2025 ha segnato l’entrata in vigore di una nuova serie di regole come parte dell’AI Act dell’UE, la prima legislazione globale completa sull’IA, che viene implementata in fasi graduali. Come il GDPR per la privacy dei dati negli anni 2010, l’AI Act si propone di diventare il modello globale per la governance della tecnologia trasformativa dell’IA per i prossimi decenni.
Recenti notizie riguardanti un’azione legale contro OpenAI, da parte dei genitori di un ragazzo di 16 anni, Adam Raine, che si è tolto la vita dopo mesi di utilizzo intensivo di ChatGPT, hanno messo in evidenza il potenziale di danno e la necessità di regolare questa tecnologia.
Struttura dell’AI Act
L’AI Act segue un approccio di gestione del rischio; mira a regolare la trasparenza e la responsabilità per i sistemi di IA e i loro sviluppatori. Anche se è stato promulgato nel 2024, la prima ondata di applicazione è stata implementata lo scorso febbraio, coprendo rischi inaccettabili che includono sistemi di IA considerati una chiara minaccia per la sicurezza sociale.
La seconda ondata, attuata questo mese, riguarda i modelli di IA di uso generale (GPAI) e rappresenta, senza dubbio, la più importante in termini di portata. Le prossime fasi sono attese per agosto 2026 (sistemi ad alto rischio) e agosto 2027 (ultimi passi di attuazione).
Obblighi per i Fornitori di GPAI
Dal 2 agosto 2025, i fornitori di GPAI devono rispettare obblighi di trasparenza e copyright quando immettono i loro modelli nel mercato dell’UE. Ciò si applica non solo alle aziende con sede nell’UE, ma a qualsiasi organizzazione con operazioni nell’UE. I modelli GPAI già presenti sul mercato prima del 2 agosto 2025 devono garantire la conformità entro il 2 agosto 2027.
Per legge, i modelli GPAI includono quelli addestrati con oltre 10^23 operazioni in virgola mobile (FLOP) e capaci di generare linguaggio (testo o audio), testo-immagine o testo-video.
I fornitori di sistemi GPAI devono mantenere documentazione tecnica riguardante il modello, inclusa una sintesi dettagliata del suo corpus di addestramento. Inoltre, devono implementare una politica per conformarsi alla legge sul copyright dell’UE.
Rischi Sistemici e Esenzioni
All’interno del gruppo di modelli GPAI, esiste un livello speciale considerato di rischio sistemico, composto da modelli molto avanzati sviluppati solo da pochi fornitori. Le aziende in questo livello affrontano obblighi aggiuntivi, come notificare la Commissione Europea quando sviluppano un modello ritenuto a rischio sistemico e prendere misure per garantire la sicurezza e la protezione del modello.
La classificazione dei modelli che pongono rischi sistemici può cambiare nel tempo man mano che la tecnologia evolve. Ci sono eccezioni: l’IA utilizzata per scopi di sicurezza nazionale, militari e di difesa è esente dalla legge. Alcuni sistemi open-source sono anche al di fuori della portata della legislazione, così come i modelli di IA sviluppati utilizzando codice disponibile pubblicamente.
Critiche all’AI Act
L’AI Act ha suscitato critiche per il suo impatto sproporzionato su startup e PMI, con alcuni esperti che sostengono che dovrebbe includere eccezioni per tecnologie che non hanno ancora un’ampia diffusione nel pubblico e non comportano un grande impatto o potenziale di danno. Altri affermano che potrebbe rallentare i progressi tra le organizzazioni europee nel processo di addestramento dei loro modelli di IA, e che le regole sono confuse.
Lo scorso luglio, diversi gruppi di pressione tecnologici, tra cui CCIA Europe, hanno sollecitato l’UE a fermare l’implementazione della legge, sostenendo che il lancio fosse stato troppo affrettato, senza considerare le potenziali conseguenze.
Tuttavia, l’AI Act è stato sviluppato in collaborazione con migliaia di stakeholder del settore privato, in un momento in cui le aziende cercano disperatamente linee guida normative. Introduce anche pratiche di sicurezza standard in tutta l’UE, in un periodo critico di adozione. Sta stabilendo un benchmark globale per altri da seguire in un momento di grande tumulto. Dopo l’AI Act, gli Stati Uniti e altri paesi troveranno sempre più difficile continuare a ignorare le richieste di un’IA più responsabile, un sforzo encomiabile che entrerà nella storia.