Appalti e Sicurezza: La Nuova Era dell’Intelligenza Artificiale nell’UE

Il Newsletter della Legge AI dell’UE: Offerta di Appalto per l’Ufficio AI

Data di creazione: 11 Giugno 2025

Benvenuti al Newsletter della Legge AI dell’UE, una breve newsletter bisettimanale che fornisce aggiornamenti e analisi sulle ultime novità riguardanti la legislazione sull’intelligenza artificiale nell’Unione Europea.

Processo Legislativo

Offerta di appalto per la sicurezza AI dell’Ufficio AI: L’Ufficio AI sta per cercare appaltatori terzi per fornire assistenza tecnica volta a supportare il monitoraggio della conformità, in particolare nella valutazione dei rischi posti dai modelli di AI a uso generale a livello dell’Unione, come autorizzato dagli Articoli 89, 92 e 93 della Legge AI. L’offerta di appalto di €9.080.000 è suddivisa in sei lotti. Cinque lotti affrontano specifici rischi sistemici: 1) CBRN, 2) offesa informatica, 3) perdita di controllo, 4) manipolazione dannosa e 5) rischi sociotecnici. Questi lotti coinvolgono workshop di modellazione dei rischi, sviluppo di strumenti di valutazione, creazione di procedure di riferimento e modelli di reporting per la valutazione dei rischi, e servizi di monitoraggio continuo dei rischi. Il sesto lotto si concentra sull’interfaccia di valutazione agentica, fornendo software e infrastruttura per valutare l’AI a uso generale attraverso diversi benchmark. Le parti interessate possono iscriversi per ricevere notifiche riguardanti ulteriori dettagli relativi a questo appalto.

Analisi

Come le grandi aziende tecnologiche indeboliscono le regole sull’AI avanzata: Secondo un’inchiesta da parte di Corporate Europe Observatory e LobbyControl, le grandi aziende tecnologiche hanno influito pesantemente sull’indebolimento del Codice di Pratica per i modelli di AI a uso generale, uno strumento chiave per l’attuazione della Legge AI. Nonostante le lamentele di Google riguardo al fatto che i fornitori di modelli fossero “pesantemente sovrastati da altri stakeholder”, queste aziende tecnologiche hanno goduto di un accesso privilegiato al processo di redazione. Quasi la metà delle organizzazioni invitate ai workshop dedicati ai fornitori di modelli erano aziende statunitensi, tra cui Google, Microsoft, Meta, Apple, Amazon e aziende di AI ben finanziate come OpenAI, Anthropic e Hugging Face. Nel frattempo, le 350 organizzazioni che rappresentano la società civile, il mondo accademico e le imprese europee hanno affrontato una partecipazione ristretta e una trasparenza limitata riguardo alle discussioni nei workshop. I giganti tecnologici statunitensi hanno coordinato messaggi affermando che il Codice rappresentava un “eccesso normativo” che “soffocherebbe l’innovazione” – una retorica allineata con le tendenze politiche deregolatorie. Le grandi aziende tecnologiche sono riuscite a utilizzare il governo statunitense per opporsi alle regole digitali dell’UE, inclusi l’ordine esecutivo dell’amministrazione Trump che minacciava dazi contro i paesi che multavano le aziende tecnologiche americane e la Missione degli Stati Uniti all’UE che esercitava pressioni sulla Commissione riguardo al Codice di Pratica.

Aziende statunitensi ancora coinvolte nel Codice nonostante Trump: Cynthia Kroet di Euronews ha riportato che le aziende tecnologiche statunitensi rimangono “molto proattive” nel processo di sviluppo del Codice di Pratica, senza percepire cambiamenti di atteggiamento in seguito al cambiamento di amministrazione americana, secondo un funzionario dell’Ufficio AI parlando con Euronews. Il Codice volontario, progettato per aiutare i fornitori di AI a uso generale a conformarsi alla Legge AI, ha perso la scadenza di pubblicazione del 2 maggio. La Commissione ha esteso le consultazioni dopo aver ricevuto numerose richieste da parte degli stakeholder per mantenere l’impegno oltre il periodo originale. Con circa 1.000 partecipanti coinvolti attraverso sessioni plenarie e workshop, il processo di redazione continua sotto tredici esperti nominati. L’esecutivo dell’UE mira a pubblicarlo prima del 2 agosto, quando entreranno in vigore le relative norme della Legge AI. Recenti accuse di lobbying da parte di Corporate Europe Observatory e LobbyControl suggeriscono che le grandi aziende tecnologiche hanno goduto di vantaggi strutturali durante la redazione, sebbene la Commissione sostenga che tutti i partecipanti avessero pari opportunità di partecipazione. Il funzionario dell’UE non ha potuto dire se sembra probabile che le aziende firmeranno, ma ha sottolineato che è importante che lo facciano. Un’opzione alternativa, in cui le aziende si impegnano solo su parti specifiche del Codice, non è ancora stata proposta.

Applicazione ostacolata da mancanza di finanziamenti e competenze: Tonya Riley, reporter sulla privacy per Bloomberg Law, ha riportato che le restrizioni finanziarie e la carenza di talenti sfideranno l’applicazione della Legge AI, secondo l’assistente alle politiche digitali del Parlamento europeo, Kai Zenner. Parlando a una conferenza della George Washington University, Zenner ha evidenziato che “la maggior parte degli Stati membri è quasi al verde” e sta perdendo competenze tecniche a favore di aziende tecnologiche che pagano meglio. “Questa combinazione di mancanza di finanziamenti e anche di mancanza di talenti sarà davvero una delle principali sfide,” ha dichiarato Zenner, sottolineando che i regolatori hanno bisogno di “veri esperti” per monitorare efficacemente le aziende di AI. Con la scadenza del 2 agosto 2025 che si avvicina per la designazione delle autorità nazionali di applicazione, Zenner ha suggerito che gli Stati membri in crisi di bilancio potrebbero dare priorità all’innovazione nell’AI piuttosto che alla regolamentazione. Anche i paesi finanziariamente stabili potrebbero esitare ad applicare sanzioni contro le aziende di AI in cui stanno investendo per la crescita economica. Zenner, che ha contribuito a redigere la Legge, ha espresso delusione per la versione finale, definendola “vaga” e “contradditoria”, mettendo in dubbio se funzionerà senza ostacolare l’innovazione.

Italia e Ungheria non nominano organi per i diritti fondamentali: Cynthia Kroet di Euronews ha riportato che Italia e Ungheria non hanno rispettato la scadenza di novembre 2024 per nominare organi che garantiscano la protezione dei diritti fondamentali nell’implementazione dell’AI, secondo i dati della Commissione europea. La Commissione è attualmente in contatto con entrambi gli Stati membri e li supporta mentre si preparano a soddisfare questo obbligo. Tutti e 27 gli Stati membri dell’UE erano tenuti a identificare e elencare pubblicamente le autorità responsabili entro il 2 novembre 2024 secondo la Legge AI. Il numero di autorità nominate varia significativamente tra gli Stati membri in base agli approcci nazionali di attuazione. La Bulgaria ha elencato nove autorità, compresi il suo Ombudsman nazionale e l’Autorità per la protezione dei dati, mentre il Portogallo ha identificato 14 organi. La Slovacchia ha nominato solo due autorità, mentre la Spagna ha designato 22. La Commissione sta lavorando con gli Stati membri per stabilire una comprensione coerente delle autorità appropriate e garantire una cooperazione efficace tra questi organi pubblici e le future autorità di sorveglianza del mercato.

Korea vs legislazione AI dell’UE: Sakshi Shivhare, associato alle politiche per l’Asia-Pacifico presso il Future of Privacy Forum, e Kwang Bae Park, partner di Lee & Ko, hanno pubblicato un confronto tra il Framework Act sull’AI della Corea del Sud e la Legge AI dell’UE. Sebbene entrambi i framework impieghino classificazione tiered e requisiti di trasparenza, l’approccio della Corea del Sud differisce in diversi aspetti. Il Framework Act presenta una categorizzazione semplificata dei rischi, inclusa l’assenza di pratiche AI proibite, penali finanziari inferiori e l’istituzione di iniziative e organi governativi specificamente progettati per promuovere lo sviluppo e l’implementazione dell’AI. Comprendere queste somiglianze e differenze è essenziale per sviluppare strategie di conformità globali, in particolare poiché molte aziende tecnologiche devono navigare simultaneamente tra entrambi i framework normativi.

More Insights

Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft è probabile che firmi il codice di condotta dell'Unione Europea per garantire la conformità con le normative sull'intelligenza artificiale, mentre Meta ha annunciato che non firmerà il...

Legge sull’IA in Colorado: un nuovo standard per il futuro

La recente spinta fallita da parte dei membri del Congresso per congelare le leggi sull'intelligenza artificiale a livello statale ha lasciato le aziende statunitensi con operazioni nazionali di...

Piano d’Azione per l’AI: Verso Etica e Innovazione

Il prossimo Piano d'azione sulla tecnologia AI 2026–2030 della Malesia rafforzerà le salvaguardie etiche e i quadri di governance riguardanti l'uso dell'intelligenza artificiale. Il Ministro Digitale...

Strategie e Politiche AI: Un Futuro Condiviso

Lo sviluppo di politiche e strategie responsabili per l'intelligenza artificiale (AI) deve avvenire simultaneamente piuttosto che in modo sequenziale. Questo è stato condiviso da un relatore durante...

Rischi sistemici dell’IA: Linee guida per la conformità alle normative europee

La Commissione Europea ha presentato linee guida per aiutare i modelli di intelligenza artificiale che presentano rischi sistemici a conformarsi alla regolamentazione dell'Unione Europea...

Kerala: Pioniere dell’AI Etica nell’Istruzione

Il Kerala sta emergendo come un leader globale nell'intelligenza artificiale etica e nell'istruzione, adottando un approccio che combina visione governativa, innovazione e impegno per l'equità...

Stati e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Le leggi sull'intelligenza artificiale negli Stati Uniti stanno rapidamente aumentando, poiché gli stati, come California e Colorado, stanno implementando norme per affrontare questioni come la...

Intelligenza Artificiale e Compliance: Rischi e Opportunità

L'IA nella compliance è qui e si integra nelle operazioni quotidiane di molte organizzazioni, migliorando le capacità di rilevamento e automatizzando compiti intensivi in termini di risorse. Tuttavia...

Censura alimentata dall’IA: la nuova era della regolamentazione in Europa

Le nuove norme "di sicurezza e protezione" dell'UE richiederanno alle aziende tecnologiche di censurare e moderare i contenuti sui modelli di intelligenza artificiale (IA) a uso generale per prevenire...