Revisione dell’Atto sull’Intelligenza Artificiale: Coordinamento dei Paesi UE entro Aprile 2026

EU countries to coordinate positions on AI Act revisions by April 2026

Il 12 gennaio 2026, si è appreso che gli Stati membri dell’UE mirano a finalizzare le posizioni sulle proposte di emendamento dell’AI Act entro aprile 2026. Questa normativa, in vigore dal 1° agosto 2024, è attualmente in fase di revisione per affrontare problemi di applicazione e sviluppi tecnologici. La coordinazione coinvolge la Commissione, il Consiglio e il Parlamento, concentrandosi su sistemi ad alto rischio e modelli di intelligenza artificiale di uso generale.

Tempi di attuazione dell’AI Act e rollout graduale

L’AI Act è entrato in vigore il 1° agosto 2024, con divieti immediati su pratiche come il punteggio sociale governativo. I requisiti per i sistemi ad alto rischio inizieranno ad agosto 2026, mentre gli obblighi per l’AI di uso generale sono cominciati ad agosto 2025. Le linee guida per i modelli fondamentali hanno completato la consultazione pubblica alla fine del 2025.

Le autorità nazionali sono responsabili dell’applicazione delle regole, supportate dall’Ufficio europeo per l’intelligenza artificiale. Gli Stati membri devono presentare relazioni annuali sui progressi. Il feedback degli stakeholder del 2025 ha identificato lacune nelle definizioni di alto rischio e nei criteri di valutazione dei modelli.

Proposte di emendamento chiave sotto revisione degli Stati membri

Le discussioni si concentrano sul perfezionamento delle liste dei sistemi ad alto rischio nell’Allegato III, che include identificazione biometrica e strumenti educativi. Le proposte mirano ad aggiustare le soglie per il rischio sistemico nei modelli di uso generale, basandosi su parametri computazionali. Gli aggiornamenti sull’applicazione potrebbero armonizzare le sanzioni, che potrebbero arrivare fino a €35 milioni o il 7% del fatturato.

I gruppi di lavoro del Consiglio, sotto le presidenze successive, facilitano gli scambi tecnici. I contributi di alcuni Stati membri si concentrano sull’equilibrio tra innovazione e sicurezza. I piloti dei sandbox del 2025 informano le modifiche basate su evidenze.

Strutture di coordinamento tra gli Stati membri

Il Gruppo di lavoro tecnico sull’IA si riunisce regolarmente, con gli ambasciatori COREPER che valutano i progressi prima di aprile. La Commissione fornisce valutazioni d’impatto. I sandbox operativi in diversi Stati testano le flessibilità. Alcuni Stati documentano i successi dei sandbox nella compliance volontaria. Le proposte della Germania sono allineate con i quadri GDPR.

Il Patto sull’IA conta 400 aderenti volontari che promuovono l’adozione precoce.

Supervisione della Commissione Europea sull’iniziativa di emendamento

La Commissione esercita un’autorità delegata per gli aggiornamenti degli allegati sotto scrutinio. Le modifiche sostanziali seguono la normale procedura legislativa. Il Vicepresidente esecutivo per la sovranità tecnologica dirige le operazioni dell’Ufficio per l’IA. La DG Connect redige i testi con input del Consiglio dell’IA. I codici per l’IA di uso generale saranno completati nel primo trimestre del 2026, integrando le disposizioni del Digital Services Act e del Data Act. I costi annuali di attuazione sono stimati tra €4-10 miliardi a livello dell’Unione.

Standard globali influenzati dall’approccio dell’UE

Le regole dell’UE modellano i quadri internazionali, con riferimenti nella legislazione di altri paesi. Negli Stati Uniti, nel 2026, si considerano livelli di rischio. Gli impegni del G7 di Hiroshima affrontano i rischi generativi. Altri paesi come la Cina e Singapore implementano sistemi di governance dell’IA modellati sul design dell’UE.

Challenge di consenso di fronte alla scadenza di aprile

Le posizioni variano sull’espansione dei divieti e sull’affinamento delle concessioni. Stati membri più piccoli cercano assistenza per la capacità di applicazione, mentre le economie maggiori sostengono la flessibilità. La Francia rafforza le salvaguardie biometriche; i paesi nordici espandono le esenzioni per la ricerca.

Il Consiglio sulla Competitività di marzo esaminerà lo stato della situazione. La tempistica coincide con la valutazione del Digital Decade, che mira al 75% di adozione pubblica dell’IA.

Input degli stakeholder che plasmano le revisioni

BusinessEurope sostiene riduzioni del carico per le startup. La commissione del mercato interno del Parlamento traccia i progressi. I gruppi per i diritti chiedono protezioni di non regressione. I parlamenti nazionali valutano la sussidiarietà. I sandbox in 15 Stati forniscono dati di distribuzione.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...