La leadership dell’UE nella regolamentazione dell’IA

La UE è un Pioniere e l’AI Act lo Dimostra

Il 2 agosto 2025 ha segnato l’entrata in vigore di una nuova serie di regole come parte dell’AI Act dell’UE, la prima legislazione globale completa sull’IA, che viene implementata in fasi graduali. Come il GDPR per la privacy dei dati negli anni 2010, l’AI Act si propone di diventare il modello globale per la governance della tecnologia trasformativa dell’IA per i prossimi decenni.

Recenti notizie riguardanti un’azione legale contro OpenAI, da parte dei genitori di un ragazzo di 16 anni, Adam Raine, che si è tolto la vita dopo mesi di utilizzo intensivo di ChatGPT, hanno messo in evidenza il potenziale di danno e la necessità di regolare questa tecnologia.

Struttura dell’AI Act

L’AI Act segue un approccio di gestione del rischio; mira a regolare la trasparenza e la responsabilità per i sistemi di IA e i loro sviluppatori. Anche se è stato promulgato nel 2024, la prima ondata di applicazione è stata implementata lo scorso febbraio, coprendo rischi inaccettabili che includono sistemi di IA considerati una chiara minaccia per la sicurezza sociale.

La seconda ondata, attuata questo mese, riguarda i modelli di IA di uso generale (GPAI) e rappresenta, senza dubbio, la più importante in termini di portata. Le prossime fasi sono attese per agosto 2026 (sistemi ad alto rischio) e agosto 2027 (ultimi passi di attuazione).

Obblighi per i Fornitori di GPAI

Dal 2 agosto 2025, i fornitori di GPAI devono rispettare obblighi di trasparenza e copyright quando immettono i loro modelli nel mercato dell’UE. Ciò si applica non solo alle aziende con sede nell’UE, ma a qualsiasi organizzazione con operazioni nell’UE. I modelli GPAI già presenti sul mercato prima del 2 agosto 2025 devono garantire la conformità entro il 2 agosto 2027.

Per legge, i modelli GPAI includono quelli addestrati con oltre 10^23 operazioni in virgola mobile (FLOP) e capaci di generare linguaggio (testo o audio), testo-immagine o testo-video.

I fornitori di sistemi GPAI devono mantenere documentazione tecnica riguardante il modello, inclusa una sintesi dettagliata del suo corpus di addestramento. Inoltre, devono implementare una politica per conformarsi alla legge sul copyright dell’UE.

Rischi Sistemici e Esenzioni

All’interno del gruppo di modelli GPAI, esiste un livello speciale considerato di rischio sistemico, composto da modelli molto avanzati sviluppati solo da pochi fornitori. Le aziende in questo livello affrontano obblighi aggiuntivi, come notificare la Commissione Europea quando sviluppano un modello ritenuto a rischio sistemico e prendere misure per garantire la sicurezza e la protezione del modello.

La classificazione dei modelli che pongono rischi sistemici può cambiare nel tempo man mano che la tecnologia evolve. Ci sono eccezioni: l’IA utilizzata per scopi di sicurezza nazionale, militari e di difesa è esente dalla legge. Alcuni sistemi open-source sono anche al di fuori della portata della legislazione, così come i modelli di IA sviluppati utilizzando codice disponibile pubblicamente.

Critiche all’AI Act

L’AI Act ha suscitato critiche per il suo impatto sproporzionato su startup e PMI, con alcuni esperti che sostengono che dovrebbe includere eccezioni per tecnologie che non hanno ancora un’ampia diffusione nel pubblico e non comportano un grande impatto o potenziale di danno. Altri affermano che potrebbe rallentare i progressi tra le organizzazioni europee nel processo di addestramento dei loro modelli di IA, e che le regole sono confuse.

Lo scorso luglio, diversi gruppi di pressione tecnologici, tra cui CCIA Europe, hanno sollecitato l’UE a fermare l’implementazione della legge, sostenendo che il lancio fosse stato troppo affrettato, senza considerare le potenziali conseguenze.

Tuttavia, l’AI Act è stato sviluppato in collaborazione con migliaia di stakeholder del settore privato, in un momento in cui le aziende cercano disperatamente linee guida normative. Introduce anche pratiche di sicurezza standard in tutta l’UE, in un periodo critico di adozione. Sta stabilendo un benchmark globale per altri da seguire in un momento di grande tumulto. Dopo l’AI Act, gli Stati Uniti e altri paesi troveranno sempre più difficile continuare a ignorare le richieste di un’IA più responsabile, un sforzo encomiabile che entrerà nella storia.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...