Appalti e Sicurezza: La Nuova Era dell’Intelligenza Artificiale nell’UE

Il Newsletter della Legge AI dell’UE: Offerta di Appalto per l’Ufficio AI

Data di creazione: 11 Giugno 2025

Benvenuti al Newsletter della Legge AI dell’UE, una breve newsletter bisettimanale che fornisce aggiornamenti e analisi sulle ultime novità riguardanti la legislazione sull’intelligenza artificiale nell’Unione Europea.

Processo Legislativo

Offerta di appalto per la sicurezza AI dell’Ufficio AI: L’Ufficio AI sta per cercare appaltatori terzi per fornire assistenza tecnica volta a supportare il monitoraggio della conformità, in particolare nella valutazione dei rischi posti dai modelli di AI a uso generale a livello dell’Unione, come autorizzato dagli Articoli 89, 92 e 93 della Legge AI. L’offerta di appalto di €9.080.000 è suddivisa in sei lotti. Cinque lotti affrontano specifici rischi sistemici: 1) CBRN, 2) offesa informatica, 3) perdita di controllo, 4) manipolazione dannosa e 5) rischi sociotecnici. Questi lotti coinvolgono workshop di modellazione dei rischi, sviluppo di strumenti di valutazione, creazione di procedure di riferimento e modelli di reporting per la valutazione dei rischi, e servizi di monitoraggio continuo dei rischi. Il sesto lotto si concentra sull’interfaccia di valutazione agentica, fornendo software e infrastruttura per valutare l’AI a uso generale attraverso diversi benchmark. Le parti interessate possono iscriversi per ricevere notifiche riguardanti ulteriori dettagli relativi a questo appalto.

Analisi

Come le grandi aziende tecnologiche indeboliscono le regole sull’AI avanzata: Secondo un’inchiesta da parte di Corporate Europe Observatory e LobbyControl, le grandi aziende tecnologiche hanno influito pesantemente sull’indebolimento del Codice di Pratica per i modelli di AI a uso generale, uno strumento chiave per l’attuazione della Legge AI. Nonostante le lamentele di Google riguardo al fatto che i fornitori di modelli fossero “pesantemente sovrastati da altri stakeholder”, queste aziende tecnologiche hanno goduto di un accesso privilegiato al processo di redazione. Quasi la metà delle organizzazioni invitate ai workshop dedicati ai fornitori di modelli erano aziende statunitensi, tra cui Google, Microsoft, Meta, Apple, Amazon e aziende di AI ben finanziate come OpenAI, Anthropic e Hugging Face. Nel frattempo, le 350 organizzazioni che rappresentano la società civile, il mondo accademico e le imprese europee hanno affrontato una partecipazione ristretta e una trasparenza limitata riguardo alle discussioni nei workshop. I giganti tecnologici statunitensi hanno coordinato messaggi affermando che il Codice rappresentava un “eccesso normativo” che “soffocherebbe l’innovazione” – una retorica allineata con le tendenze politiche deregolatorie. Le grandi aziende tecnologiche sono riuscite a utilizzare il governo statunitense per opporsi alle regole digitali dell’UE, inclusi l’ordine esecutivo dell’amministrazione Trump che minacciava dazi contro i paesi che multavano le aziende tecnologiche americane e la Missione degli Stati Uniti all’UE che esercitava pressioni sulla Commissione riguardo al Codice di Pratica.

Aziende statunitensi ancora coinvolte nel Codice nonostante Trump: Cynthia Kroet di Euronews ha riportato che le aziende tecnologiche statunitensi rimangono “molto proattive” nel processo di sviluppo del Codice di Pratica, senza percepire cambiamenti di atteggiamento in seguito al cambiamento di amministrazione americana, secondo un funzionario dell’Ufficio AI parlando con Euronews. Il Codice volontario, progettato per aiutare i fornitori di AI a uso generale a conformarsi alla Legge AI, ha perso la scadenza di pubblicazione del 2 maggio. La Commissione ha esteso le consultazioni dopo aver ricevuto numerose richieste da parte degli stakeholder per mantenere l’impegno oltre il periodo originale. Con circa 1.000 partecipanti coinvolti attraverso sessioni plenarie e workshop, il processo di redazione continua sotto tredici esperti nominati. L’esecutivo dell’UE mira a pubblicarlo prima del 2 agosto, quando entreranno in vigore le relative norme della Legge AI. Recenti accuse di lobbying da parte di Corporate Europe Observatory e LobbyControl suggeriscono che le grandi aziende tecnologiche hanno goduto di vantaggi strutturali durante la redazione, sebbene la Commissione sostenga che tutti i partecipanti avessero pari opportunità di partecipazione. Il funzionario dell’UE non ha potuto dire se sembra probabile che le aziende firmeranno, ma ha sottolineato che è importante che lo facciano. Un’opzione alternativa, in cui le aziende si impegnano solo su parti specifiche del Codice, non è ancora stata proposta.

Applicazione ostacolata da mancanza di finanziamenti e competenze: Tonya Riley, reporter sulla privacy per Bloomberg Law, ha riportato che le restrizioni finanziarie e la carenza di talenti sfideranno l’applicazione della Legge AI, secondo l’assistente alle politiche digitali del Parlamento europeo, Kai Zenner. Parlando a una conferenza della George Washington University, Zenner ha evidenziato che “la maggior parte degli Stati membri è quasi al verde” e sta perdendo competenze tecniche a favore di aziende tecnologiche che pagano meglio. “Questa combinazione di mancanza di finanziamenti e anche di mancanza di talenti sarà davvero una delle principali sfide,” ha dichiarato Zenner, sottolineando che i regolatori hanno bisogno di “veri esperti” per monitorare efficacemente le aziende di AI. Con la scadenza del 2 agosto 2025 che si avvicina per la designazione delle autorità nazionali di applicazione, Zenner ha suggerito che gli Stati membri in crisi di bilancio potrebbero dare priorità all’innovazione nell’AI piuttosto che alla regolamentazione. Anche i paesi finanziariamente stabili potrebbero esitare ad applicare sanzioni contro le aziende di AI in cui stanno investendo per la crescita economica. Zenner, che ha contribuito a redigere la Legge, ha espresso delusione per la versione finale, definendola “vaga” e “contradditoria”, mettendo in dubbio se funzionerà senza ostacolare l’innovazione.

Italia e Ungheria non nominano organi per i diritti fondamentali: Cynthia Kroet di Euronews ha riportato che Italia e Ungheria non hanno rispettato la scadenza di novembre 2024 per nominare organi che garantiscano la protezione dei diritti fondamentali nell’implementazione dell’AI, secondo i dati della Commissione europea. La Commissione è attualmente in contatto con entrambi gli Stati membri e li supporta mentre si preparano a soddisfare questo obbligo. Tutti e 27 gli Stati membri dell’UE erano tenuti a identificare e elencare pubblicamente le autorità responsabili entro il 2 novembre 2024 secondo la Legge AI. Il numero di autorità nominate varia significativamente tra gli Stati membri in base agli approcci nazionali di attuazione. La Bulgaria ha elencato nove autorità, compresi il suo Ombudsman nazionale e l’Autorità per la protezione dei dati, mentre il Portogallo ha identificato 14 organi. La Slovacchia ha nominato solo due autorità, mentre la Spagna ha designato 22. La Commissione sta lavorando con gli Stati membri per stabilire una comprensione coerente delle autorità appropriate e garantire una cooperazione efficace tra questi organi pubblici e le future autorità di sorveglianza del mercato.

Korea vs legislazione AI dell’UE: Sakshi Shivhare, associato alle politiche per l’Asia-Pacifico presso il Future of Privacy Forum, e Kwang Bae Park, partner di Lee & Ko, hanno pubblicato un confronto tra il Framework Act sull’AI della Corea del Sud e la Legge AI dell’UE. Sebbene entrambi i framework impieghino classificazione tiered e requisiti di trasparenza, l’approccio della Corea del Sud differisce in diversi aspetti. Il Framework Act presenta una categorizzazione semplificata dei rischi, inclusa l’assenza di pratiche AI proibite, penali finanziari inferiori e l’istituzione di iniziative e organi governativi specificamente progettati per promuovere lo sviluppo e l’implementazione dell’AI. Comprendere queste somiglianze e differenze è essenziale per sviluppare strategie di conformità globali, in particolare poiché molte aziende tecnologiche devono navigare simultaneamente tra entrambi i framework normativi.

More Insights

Ingegneri AI e Ingegneri Responsabili: Innovazione e Etica a Confronto

L'intelligenza artificiale ha fatto esplodere le sue capacità, portando gli ingegneri dell'IA a essere in prima linea nell'innovazione. Tuttavia, questa potenza comporta responsabilità, e garantire...

AI Responsabile: Oltre il Buzzword

La dottoressa Anna Zeiter sottolinea che "l'IA responsabile non è solo un termine di moda, ma un imperativo fondamentale" per garantire la fiducia e la responsabilità nell'uso delle tecnologie...

Integrare l’IA rispettando la compliance

L'adozione dell'IA nelle aziende e nella produzione sta fallendo almeno due volte più spesso di quanto non abbia successo. Il Cloud Security Alliance (CSA) afferma che il problema reale è che le...

La preservazione dei dati nell’era dell’IA generativa

Gli strumenti di intelligenza artificiale generativa (GAI) sollevano preoccupazioni legali come la privacy dei dati e la sicurezza. È fondamentale che le organizzazioni stabiliscano politiche di...

Intelligenza Artificiale Responsabile: Principi e Vantaggi

Oggi, l'IA sta cambiando il nostro modo di vivere e lavorare, quindi è molto importante utilizzarla nel modo giusto. L'IA responsabile significa creare e utilizzare IA che sia equa, chiara e...

Intelligenza Artificiale: Costruire Fiducia e Governance per il Successo Aziendale

Negli ultimi venti anni, l'intelligenza artificiale (AI) è diventata fondamentale per prendere decisioni aziendali e affrontare sfide complesse. È essenziale costruire fiducia nell'AI attraverso...

Regolamentazione dell’IA in Spagna: Innovazioni e Sfide

La Spagna è all'avanguardia nella governance dell'IA con il primo regolatore europeo per l'IA (AESIA) e una legge nazionale sull'IA in fase di sviluppo. Questa legge mira a implementare e integrare il...

Regolamentare l’IA: sfide e opportunità globali

L'intelligenza artificiale (AI) ha fatto enormi progressi negli ultimi anni, diventando sempre più presente nella consapevolezza pubblica. I governi e gli organismi di regolamentazione in tutto il...

AI e scommesse: opportunità e responsabilità nel futuro del gioco

L'implementazione dell'Intelligenza Artificiale (IA) nel settore del gioco d'azzardo offre opportunità significative, ma comporta anche crescenti aspettative normative e rischi di responsabilità. È...