La leadership dell’UE nella regolamentazione dell’IA

La UE è un Pioniere e l’AI Act lo Dimostra

Il 2 agosto 2025 ha segnato l’entrata in vigore di una nuova serie di regole come parte dell’AI Act dell’UE, la prima legislazione globale completa sull’IA, che viene implementata in fasi graduali. Come il GDPR per la privacy dei dati negli anni 2010, l’AI Act si propone di diventare il modello globale per la governance della tecnologia trasformativa dell’IA per i prossimi decenni.

Recenti notizie riguardanti un’azione legale contro OpenAI, da parte dei genitori di un ragazzo di 16 anni, Adam Raine, che si è tolto la vita dopo mesi di utilizzo intensivo di ChatGPT, hanno messo in evidenza il potenziale di danno e la necessità di regolare questa tecnologia.

Struttura dell’AI Act

L’AI Act segue un approccio di gestione del rischio; mira a regolare la trasparenza e la responsabilità per i sistemi di IA e i loro sviluppatori. Anche se è stato promulgato nel 2024, la prima ondata di applicazione è stata implementata lo scorso febbraio, coprendo rischi inaccettabili che includono sistemi di IA considerati una chiara minaccia per la sicurezza sociale.

La seconda ondata, attuata questo mese, riguarda i modelli di IA di uso generale (GPAI) e rappresenta, senza dubbio, la più importante in termini di portata. Le prossime fasi sono attese per agosto 2026 (sistemi ad alto rischio) e agosto 2027 (ultimi passi di attuazione).

Obblighi per i Fornitori di GPAI

Dal 2 agosto 2025, i fornitori di GPAI devono rispettare obblighi di trasparenza e copyright quando immettono i loro modelli nel mercato dell’UE. Ciò si applica non solo alle aziende con sede nell’UE, ma a qualsiasi organizzazione con operazioni nell’UE. I modelli GPAI già presenti sul mercato prima del 2 agosto 2025 devono garantire la conformità entro il 2 agosto 2027.

Per legge, i modelli GPAI includono quelli addestrati con oltre 10^23 operazioni in virgola mobile (FLOP) e capaci di generare linguaggio (testo o audio), testo-immagine o testo-video.

I fornitori di sistemi GPAI devono mantenere documentazione tecnica riguardante il modello, inclusa una sintesi dettagliata del suo corpus di addestramento. Inoltre, devono implementare una politica per conformarsi alla legge sul copyright dell’UE.

Rischi Sistemici e Esenzioni

All’interno del gruppo di modelli GPAI, esiste un livello speciale considerato di rischio sistemico, composto da modelli molto avanzati sviluppati solo da pochi fornitori. Le aziende in questo livello affrontano obblighi aggiuntivi, come notificare la Commissione Europea quando sviluppano un modello ritenuto a rischio sistemico e prendere misure per garantire la sicurezza e la protezione del modello.

La classificazione dei modelli che pongono rischi sistemici può cambiare nel tempo man mano che la tecnologia evolve. Ci sono eccezioni: l’IA utilizzata per scopi di sicurezza nazionale, militari e di difesa è esente dalla legge. Alcuni sistemi open-source sono anche al di fuori della portata della legislazione, così come i modelli di IA sviluppati utilizzando codice disponibile pubblicamente.

Critiche all’AI Act

L’AI Act ha suscitato critiche per il suo impatto sproporzionato su startup e PMI, con alcuni esperti che sostengono che dovrebbe includere eccezioni per tecnologie che non hanno ancora un’ampia diffusione nel pubblico e non comportano un grande impatto o potenziale di danno. Altri affermano che potrebbe rallentare i progressi tra le organizzazioni europee nel processo di addestramento dei loro modelli di IA, e che le regole sono confuse.

Lo scorso luglio, diversi gruppi di pressione tecnologici, tra cui CCIA Europe, hanno sollecitato l’UE a fermare l’implementazione della legge, sostenendo che il lancio fosse stato troppo affrettato, senza considerare le potenziali conseguenze.

Tuttavia, l’AI Act è stato sviluppato in collaborazione con migliaia di stakeholder del settore privato, in un momento in cui le aziende cercano disperatamente linee guida normative. Introduce anche pratiche di sicurezza standard in tutta l’UE, in un periodo critico di adozione. Sta stabilendo un benchmark globale per altri da seguire in un momento di grande tumulto. Dopo l’AI Act, gli Stati Uniti e altri paesi troveranno sempre più difficile continuare a ignorare le richieste di un’IA più responsabile, un sforzo encomiabile che entrerà nella storia.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...