Preoccupazioni per la conformità del GPT-5 all’AI Act dell’UE

Il bollettino dell’AI Act dell’UE #86: Preoccupazioni sulla conformità di GPT-5

Benvenuti al Bollettino dell’AI Act dell’UE, una breve newsletter bisettimanale che fornisce aggiornamenti e analisi sui recenti sviluppi della legge sull’intelligenza artificiale dell’Unione Europea.

Processo legislativo

Consultazione della Commissione su sistemi AI trasparenti

La Commissione Europea ha avviato una consultazione per sviluppare linee guida e un Codice di Pratica per sistemi AI trasparenti, concentrandosi in particolare sul supporto a chi fornisce e distribuisce sistemi AI generativi per rilevare e etichettare contenuti generati o manipolati dall’AI. Ai sensi dell’AI Act, chi distribuisce e fornisce AI generativa deve informare gli utenti quando interagiscono con sistemi AI, inclusi quelli di riconoscimento emotivo e categorizzazione biometrica, o quando si imbattono in contenuti generati dall’AI. La Commissione sta cercando input da una vasta gamma di portatori di interesse, tra cui fornitori di AI, organizzazioni pubbliche e private, accademici, rappresentanti della società civile, autorità di vigilanza e cittadini. La scadenza per la consultazione è fissata per il 2 ottobre 2025, insieme a una chiamata simultanea per espressioni di interesse per i portatori di interesse che desiderano partecipare alla creazione del Codice di Pratica. Questi obblighi di trasparenza, parte degli sforzi dell’UE per promuovere un’AI responsabile e affidabile, entreranno in vigore il 2 agosto 2026.

Critiche delle autorità tedesche sulla privacy

Secondo un rapporto di Euractiv, le autorità di protezione dei dati tedesche hanno fortemente criticato la bozza di legge di attuazione dell’AI Act del governo, sostenendo che diminuisce inappropriatamente la loro autorità. L’AI Act adotta un quadro normativo basato sul rischio, supervisionato da autorità nazionali designate. La principale preoccupazione sollevata da 17 autorità di protezione dei dati statali tedesche riguarda la supervisione dei sistemi AI in aree sensibili come l’applicazione della legge, la gestione delle frontiere, la giustizia e la democrazia. La legge di bozza assegna le responsabilità di vigilanza al regolatore delle telecomunicazioni (BNetzA), il quale, secondo le autorità di protezione dei dati, contraddice la disposizione dell’AI Act che stabilisce che le autorità di protezione dei dati dovrebbero invece supervisionare le applicazioni AI ad alto rischio in questi ambiti sensibili. Meike Kamp, capo dell’autorità sulla privacy di Berlino, ha avvertito che delegare queste responsabilità al BNetzA comporterebbe un “massiccio indebolimento dei diritti fondamentali”.

Analisi

ChatGPT potrebbe non seguire ancora le regole dell’UE

Si sono sollevate domande sulla conformità di OpenAI ai requisiti dell’AI Act per il suo nuovo modello GPT-5, in particolare riguardo agli obblighi di divulgazione dei dati di addestramento. L’AI Act richiede che gli sviluppatori di AI generali pubblichino riassunti dei loro dati di addestramento. Sebbene i modelli rilasciati prima del 2 agosto 2025 abbiano tempo fino al 2027 per conformarsi, quelli rilasciati dopo devono rispettare immediatamente tali requisiti. GPT-5, rilasciato il 7 agosto 2025, sembra mancare del riassunto richiesto dei dati di addestramento e della politica sui diritti d’autore. Secondo Petar Tsankov, CEO di LatticeFlow, il modello probabilmente rientra nella classificazione di “rischio sistemico”, richiedendo valutazioni del modello e gestione dei potenziali rischi sistemici. La Commissione Europea indica che i requisiti di conformità di GPT-5 dipendono dal fatto che venga considerato un modello nuovo ai sensi della legge, una valutazione attualmente in corso da parte dell’AI Office. Tuttavia, l’applicazione non inizierà fino ad agosto 2026, dando a OpenAI tempo per affrontare eventuali problemi di conformità.

Il personale dell’AI Office dell’UE affronta sfide di assunzione

Nonostante il suo ruolo cruciale nell’attuazione dell’AI Act, l’AI Office sta affrontando significative difficoltà di assunzione. Attualmente impiega oltre 125 membri del personale e prevede di assumere 35 persone in più entro la fine dell’anno, ma rimangono vacanti posizioni chiave di leadership. L’ufficio, responsabile di oltre 100 compiti, inclusa l’applicazione del Codice di Pratica e l’imposizione di multe sostanziali per non conformità, fatica a reclutare personale a causa di salari poco competitivi e processi di assunzione lenti. Le attuali offerte di lavoro offrono stipendi tra $55,000 e $120,000, che, nonostante i benefici fiscali, sono notevolmente inferiori alla compensazione del settore privato, dove il personale tecnico può guadagnare milioni. La carenza di personale è diventata particolarmente pressante dall’implementazione delle regole sull’AI generale del 2 agosto. Il MEP Axel Voss suggerisce che le unità di conformità e sicurezza da sole necessitano di 200 membri, un numero significativamente superiore a quello attualmente proposto.

Complessità della proprietà intellettuale nell’AI dell’UE

La realizzazione dell’AI Act dell’UE, compreso il suo Codice di Pratica, rivela tensioni in corso tra la legge sul copyright e le necessità di sviluppo dell’AI. Mentre i requisiti di trasparenza e sicurezza sono facili da implementare, le questioni di copyright presentano sfide significative. Gli obblighi di copyright riducono i dati disponibili e, attraverso i requisiti di licenza, aumentano i costi dei dati di addestramento del modello. Una proibizione sulla riproduzione di contenuti protetti da copyright nei risultati del modello ha senso, così come addestrare su dati accessibili legalmente. Tuttavia, gestire la trasparenza dei dataset e affrontare il crescente numero di esclusioni dal copyright si dimostra problematico. I regolatori dell’UE si trovano di fronte a un dilemma: un’applicazione rigorosa del copyright potrebbe ostacolare la competitività dell’UE nello sviluppo dell’AI, mentre una riforma legale immediata è impraticabile. L’indebolimento sottile dell’applicazione del copyright nel CoP ha attratto la maggior parte dei principali sviluppatori di AI come firmatari, ad eccezione di Meta e xAI. Una politica più soddisfacente richiederebbe un dibattito sul ruolo dell’AI nel migliorare l’apprendimento, la ricerca e l’innovazione, poiché l’attuale quadro di copyright – dominato dalle industrie dei media che rappresentano meno del 4% del PIL – potrebbe ostacolare i progressi.

La mancanza di partecipazione dell’industria europea nello sviluppo degli standard

Un figura chiave nello sviluppo degli standard AI dell’UE ha criticato la mancanza di partecipazione dell’industria europea nella creazione di standard tecnici cruciali per l’attuazione dell’AI Act. Piercosma Bisconti, che guida la redazione di un “quadro di fiducia AI” per CEN e CENELEC, ha pubblicamente criticato le aziende per la loro assenza dal processo di definizione degli standard. Questa critica è stata rivolta in particolare ai firmatari dell'”iniziativa AI champions”, che include grandi aziende come Airbus, Siemens, Spotify e SAP. L’AI Act richiede standard tecnici dettagliati per convertire i suoi principi generali in linee guida concrete per gli sviluppatori di AI. Tuttavia, il progresso lento nello sviluppo degli standard ha portato l’industria e i governi dell’UE a richiedere ritardi nell’attuazione. Bisconti ha specificamente criticato le aziende che hanno chiesto di “fermare il tempo” sull’AI Act mentre, contemporaneamente, non hanno partecipato al processo di sviluppo degli standard, notando che “l’industria dell’UE è a malapena al tavolo”.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...