Il Notiziario sull’AI Act dell’UE #88: Risorse per Supportare l’Implementazione
Benvenuti al Notiziario sull’AI Act dell’UE, una breve newsletter bisettimanale che fornisce aggiornamenti e analisi sui sviluppi della legge sull’intelligenza artificiale nell’Unione Europea.
Processo Legislativo
Risorse per supportare l’implementazione
La Commissione Europea ha lanciato due risorse chiave per facilitare l’implementazione dell’AI Act: il Servizio di Assistenza AI Act e la Piattaforma di Informazione Unica. Queste iniziative mirano a supportare lo sviluppo di un’IA affidabile, fornendo la necessaria chiarezza legale in tutta Europa. La Piattaforma di Informazione Unica servirà come un hub centrale per le informazioni relative all’AI Act, offrendo linee guida complete agli stakeholder per l’implementazione.
La piattaforma include materiali provenienti dagli Stati membri, FAQ e varie risorse. Sono presenti tre strumenti digitali sulla piattaforma: 1) un Compliance Checker che aiuta gli stakeholder a identificare le proprie obbligazioni legali e requisiti di conformità; 2) un AI Act Explorer per la navigazione intuitiva attraverso i capitoli, gli allegati e le premesse dell’Atto; e 3) un modulo online che collega gli utenti al Servizio di Assistenza AI Act, gestito da esperti che lavorano a fianco dell’AI Office.
La legge sull’IA in Italia
Dan Cooper e Laura Somaini della pratica di Privacy e Cyber Sicurezza di Covington hanno riportato che l’Italia ha adottato la sua legge nazionale sull’IA, con attuazione a partire dal 10 ottobre 2025. Questa legislazione completa l’AI Act dell’UE e include sia principi generali che regole specifiche per settori non coperti dalla legislazione dell’UE. La legge designa due autorità competenti: l’ Agenzia per l’Italia Digitale (AgID) come autorità di notifica e l’ come autorità di sorveglianza del mercato.
Il governo ha dodici mesi per adottare misure aggiuntive, inclusa l’allineamento del quadro nazionale con l’AI Act, l’assegnazione di poteri amministrativi alle autorità competenti, l’istituzione di regole per la formazione dei sistemi di IA, la regolamentazione dell’uso dell’IA nelle attività investigative e di polizia, e l’aggiornamento del quadro per le sanzioni civili e penali. È importante notare che la versione finale omette i requisiti precedentemente proposti per l’etichettatura dei contenuti informativi generati dall’IA, poiché si applicano i requisiti generali di trasparenza previsti dall’AI Act.
Posizione dei Paesi Bassi sulle regole dell’IA
Secondo Euractiv, i Paesi Bassi hanno emesso un documento di posizione che supporta la chiarificazione delle regole dell’IA piuttosto che ritardi, mentre sostiene la riduzione degli oneri normativi nel libro delle regole digitali. Il documento delinea tre principi chiave: mantenere gli obiettivi originali della legislazione digitale concentrandosi sulla chiarificazione e coerenza; ridurre i costi di conformità attraverso strumenti pratici e assistenza, specialmente per governi e PMI; e semplificare la governance attraverso un miglior coordinamento dei consigli normativi europei.
Le raccomandazioni specifiche per l’AI Act includono: 1) dare priorità alla semplificazione dell’implementazione piuttosto che alle estensioni delle scadenze; 2) creare un elenco comune di infrastrutture critiche secondo l’Allegato III; 3) sviluppare modelli di conformità mantenendo la flessibilità per i fornitori; e 4) estendere la deroga per i Sistemi di Gestione della Qualità alle PMI.
Analisi
Critiche all’UE per un’eccessiva regolamentazione dell’IA
Il CFO di ASML, Roger Dassen, ha criticato l’approccio dell’UE alla regolamentazione dell’IA, affermando che spinge talenti e aziende verso la Silicon Valley. In un evento a Eindhoven, ha suggerito che l’approccio normativo dell’Europa ostacola lo sviluppo dell’IA. ASML, la principale azienda tecnologica europea per valore di mercato, ha sostenuto di mettere in pausa parti dell’implementazione dell’AI Act, unendosi a 46 aziende nella richiesta di un ritardo di due anni. Recentemente ha acquisito una partecipazione significativa nella società francese di IA Mistral con un investimento di 1,3 miliardi di euro, rafforzando la sua influenza nello spazio dell’IA in UE.
California avanza nella sua ‘Legge sull’IA’
La California ha compiuto passi significativi nella regolamentazione dell’IA, mentre la politica federale rimane ferma. Il Governatore Newsom ha firmato legislazioni sulla trasparenza dell’IA e la protezione dei minori. Le misure chiave includono l’ AI Transparency Act del 2025, che affronta i contenuti online falsi e la legge SB 53 del Senatore Wiener, che stabilisce standard di sicurezza per sistemi di IA potenti e protegge i whistleblower. Tuttavia, queste riforme non raggiungono l’ambito dell’AI Act dell’UE e le protezioni desiderate dagli attivisti.
Gaps notevoli rimangono in materia di privacy della posizione e giustizia algoritmica, con un requisito proposto per la valutazione dei sistemi automatizzati posticipato. Sebbene siano stati compiuti progressi nella sicurezza online dei bambini, la legislazione non stabilisce responsabilità finanziaria solide per le piattaforme.
Tempistiche per le linee guida sull’interazione dell’AI Act
La Commissione Europea intende rilasciare linee guida che spiegano come l’AI Act interagisce con altre leggi digitali dal terzo trimestre del 2026, potenzialmente in coincidenza con o successivamente all’implementazione delle disposizioni chiave. Questo è particolarmente rilevante per i sistemi di IA ad alto rischio, i cui requisiti principali entreranno in vigore il 2 agosto 2026.
Le linee guida affronteranno la relazione dell’AI Act con normative come il Regolamento sui Dispositivi Medici, il Regolamento Generale sulla Protezione dei Dati, il Digital Markets Act, il Digital Services Act, le norme sul copyright e il regime di sicurezza dei prodotti più ampio. Inoltre, si prevede una guida sugli obblighi ad alto rischio e sulla loro applicazione lungo la catena del valore dell’IA nel secondo o terzo trimestre del 2026, mentre la chiarificazione delle interazioni con la segnalazione degli incidenti seguirà successivamente.
La Commissione non considera specifiche comuni nonostante i ritardi negli standard dell’IA
La Commissione Europea non prevede di sviluppare requisiti tecnici obbligatori (specifiche comuni) sotto l’AI Act, nonostante i ritardi nella preparazione degli standard tecnici necessari per la conformità legale. Le specifiche comuni erano destinate a fungere da soluzione di riserva quando gli standard tecnici si rivelassero inadeguati o ritardati. Gli standard per i sistemi di IA ad alto rischio sono ora attesi intorno ad agosto 2026, in coincidenza con la scadenza di implementazione.
In un recente incontro chiuso con il gruppo di lavoro sull’implementazione dell’AI Act del Parlamento Europeo, i funzionari della Commissione hanno citato l’insufficienza di tempo e risorse per lo sviluppo delle specifiche comuni. Questa mancanza di un’opzione di riserva potrebbe incentivare i soggetti del settore a ritardare ulteriormente la definizione degli standard, specialmente poiché tali ritardi hanno già portato a richieste di rinvio dei requisiti ad alto rischio. Il parlamentare leader Brando Benifei ha sostenuto che qualsiasi rinvio dovrebbe essere condizionato all’impegno della Commissione a implementare specifiche comuni se gli standard rimangono incompleti dopo un’estensione.