Il bollettino dell’AI Act dell’UE #86: Preoccupazioni sulla conformità di GPT-5
Benvenuti al Bollettino dell’AI Act dell’UE, una breve newsletter bisettimanale che fornisce aggiornamenti e analisi sui recenti sviluppi della legge sull’intelligenza artificiale dell’Unione Europea.
Processo legislativo
Consultazione della Commissione su sistemi AI trasparenti
La Commissione Europea ha avviato una consultazione per sviluppare linee guida e un Codice di Pratica per sistemi AI trasparenti, concentrandosi in particolare sul supporto a chi fornisce e distribuisce sistemi AI generativi per rilevare e etichettare contenuti generati o manipolati dall’AI. Ai sensi dell’AI Act, chi distribuisce e fornisce AI generativa deve informare gli utenti quando interagiscono con sistemi AI, inclusi quelli di riconoscimento emotivo e categorizzazione biometrica, o quando si imbattono in contenuti generati dall’AI. La Commissione sta cercando input da una vasta gamma di portatori di interesse, tra cui fornitori di AI, organizzazioni pubbliche e private, accademici, rappresentanti della società civile, autorità di vigilanza e cittadini. La scadenza per la consultazione è fissata per il 2 ottobre 2025, insieme a una chiamata simultanea per espressioni di interesse per i portatori di interesse che desiderano partecipare alla creazione del Codice di Pratica. Questi obblighi di trasparenza, parte degli sforzi dell’UE per promuovere un’AI responsabile e affidabile, entreranno in vigore il 2 agosto 2026.
Critiche delle autorità tedesche sulla privacy
Secondo un rapporto di Euractiv, le autorità di protezione dei dati tedesche hanno fortemente criticato la bozza di legge di attuazione dell’AI Act del governo, sostenendo che diminuisce inappropriatamente la loro autorità. L’AI Act adotta un quadro normativo basato sul rischio, supervisionato da autorità nazionali designate. La principale preoccupazione sollevata da 17 autorità di protezione dei dati statali tedesche riguarda la supervisione dei sistemi AI in aree sensibili come l’applicazione della legge, la gestione delle frontiere, la giustizia e la democrazia. La legge di bozza assegna le responsabilità di vigilanza al regolatore delle telecomunicazioni (BNetzA), il quale, secondo le autorità di protezione dei dati, contraddice la disposizione dell’AI Act che stabilisce che le autorità di protezione dei dati dovrebbero invece supervisionare le applicazioni AI ad alto rischio in questi ambiti sensibili. Meike Kamp, capo dell’autorità sulla privacy di Berlino, ha avvertito che delegare queste responsabilità al BNetzA comporterebbe un “massiccio indebolimento dei diritti fondamentali”.
Analisi
ChatGPT potrebbe non seguire ancora le regole dell’UE
Si sono sollevate domande sulla conformità di OpenAI ai requisiti dell’AI Act per il suo nuovo modello GPT-5, in particolare riguardo agli obblighi di divulgazione dei dati di addestramento. L’AI Act richiede che gli sviluppatori di AI generali pubblichino riassunti dei loro dati di addestramento. Sebbene i modelli rilasciati prima del 2 agosto 2025 abbiano tempo fino al 2027 per conformarsi, quelli rilasciati dopo devono rispettare immediatamente tali requisiti. GPT-5, rilasciato il 7 agosto 2025, sembra mancare del riassunto richiesto dei dati di addestramento e della politica sui diritti d’autore. Secondo Petar Tsankov, CEO di LatticeFlow, il modello probabilmente rientra nella classificazione di “rischio sistemico”, richiedendo valutazioni del modello e gestione dei potenziali rischi sistemici. La Commissione Europea indica che i requisiti di conformità di GPT-5 dipendono dal fatto che venga considerato un modello nuovo ai sensi della legge, una valutazione attualmente in corso da parte dell’AI Office. Tuttavia, l’applicazione non inizierà fino ad agosto 2026, dando a OpenAI tempo per affrontare eventuali problemi di conformità.
Il personale dell’AI Office dell’UE affronta sfide di assunzione
Nonostante il suo ruolo cruciale nell’attuazione dell’AI Act, l’AI Office sta affrontando significative difficoltà di assunzione. Attualmente impiega oltre 125 membri del personale e prevede di assumere 35 persone in più entro la fine dell’anno, ma rimangono vacanti posizioni chiave di leadership. L’ufficio, responsabile di oltre 100 compiti, inclusa l’applicazione del Codice di Pratica e l’imposizione di multe sostanziali per non conformità, fatica a reclutare personale a causa di salari poco competitivi e processi di assunzione lenti. Le attuali offerte di lavoro offrono stipendi tra $55,000 e $120,000, che, nonostante i benefici fiscali, sono notevolmente inferiori alla compensazione del settore privato, dove il personale tecnico può guadagnare milioni. La carenza di personale è diventata particolarmente pressante dall’implementazione delle regole sull’AI generale del 2 agosto. Il MEP Axel Voss suggerisce che le unità di conformità e sicurezza da sole necessitano di 200 membri, un numero significativamente superiore a quello attualmente proposto.
Complessità della proprietà intellettuale nell’AI dell’UE
La realizzazione dell’AI Act dell’UE, compreso il suo Codice di Pratica, rivela tensioni in corso tra la legge sul copyright e le necessità di sviluppo dell’AI. Mentre i requisiti di trasparenza e sicurezza sono facili da implementare, le questioni di copyright presentano sfide significative. Gli obblighi di copyright riducono i dati disponibili e, attraverso i requisiti di licenza, aumentano i costi dei dati di addestramento del modello. Una proibizione sulla riproduzione di contenuti protetti da copyright nei risultati del modello ha senso, così come addestrare su dati accessibili legalmente. Tuttavia, gestire la trasparenza dei dataset e affrontare il crescente numero di esclusioni dal copyright si dimostra problematico. I regolatori dell’UE si trovano di fronte a un dilemma: un’applicazione rigorosa del copyright potrebbe ostacolare la competitività dell’UE nello sviluppo dell’AI, mentre una riforma legale immediata è impraticabile. L’indebolimento sottile dell’applicazione del copyright nel CoP ha attratto la maggior parte dei principali sviluppatori di AI come firmatari, ad eccezione di Meta e xAI. Una politica più soddisfacente richiederebbe un dibattito sul ruolo dell’AI nel migliorare l’apprendimento, la ricerca e l’innovazione, poiché l’attuale quadro di copyright – dominato dalle industrie dei media che rappresentano meno del 4% del PIL – potrebbe ostacolare i progressi.
La mancanza di partecipazione dell’industria europea nello sviluppo degli standard
Un figura chiave nello sviluppo degli standard AI dell’UE ha criticato la mancanza di partecipazione dell’industria europea nella creazione di standard tecnici cruciali per l’attuazione dell’AI Act. Piercosma Bisconti, che guida la redazione di un “quadro di fiducia AI” per CEN e CENELEC, ha pubblicamente criticato le aziende per la loro assenza dal processo di definizione degli standard. Questa critica è stata rivolta in particolare ai firmatari dell'”iniziativa AI champions”, che include grandi aziende come Airbus, Siemens, Spotify e SAP. L’AI Act richiede standard tecnici dettagliati per convertire i suoi principi generali in linee guida concrete per gli sviluppatori di AI. Tuttavia, il progresso lento nello sviluppo degli standard ha portato l’industria e i governi dell’UE a richiedere ritardi nell’attuazione. Bisconti ha specificamente criticato le aziende che hanno chiesto di “fermare il tempo” sull’AI Act mentre, contemporaneamente, non hanno partecipato al processo di sviluppo degli standard, notando che “l’industria dell’UE è a malapena al tavolo”.