Esperti cercasi per il nuovo pannello scientifico sull’IA

Newsletter sull’AI Act dell’UE: La Commissione Cerca Esperti per il Panel Scientifico sull’IA

Data di creazione: 27 Giugno 2025

Benvenuti alla Newsletter sull’AI Act dell’UE, una breve newsletter bisettimanale che fornisce sviluppi e analisi aggiornate sulla legge sull’intelligenza artificiale dell’Unione Europea.

Processo Legislativo

La Commissione cerca esperti per il Panel Scientifico sull’IA: La Commissione Europea sta istituendo un panel scientifico di esperti indipendenti per assistere nell’implementazione e nell’applicazione dell’AI Act. Il mandato del panel si concentra sui modelli e i sistemi di intelligenza artificiale di uso generale (GPAI). Questo panel fornirà consulenza all’Ufficio AI dell’UE e alle autorità nazionali sui rischi sistemici, la classificazione dei modelli, i metodi di valutazione e la sorveglianza di mercato transfrontaliera, nonché avvertirà l’Ufficio AI sui rischi emergenti. La Commissione cerca 60 membri per un mandato rinnovabile di due anni. I candidati devono avere competenze in GPAI, impatti dell’IA o campi correlati, inclusi la valutazione dei modelli, la valutazione e la mitigazione dei rischi, la sicurezza informatica, i rischi sistemici e le misurazioni computazionali. È richiesto un dottorato di ricerca o un’esperienza equivalente, e gli esperti devono mantenere l’indipendenza dai fornitori di IA. La selezione garantirà equilibrio di genere e rappresentanza tra i paesi dell’UE e dello SEE/EFTA. Sebbene la cittadinanza dell’UE non sia obbligatoria, l’80% degli esperti deve provenire da Stati membri dell’UE o dell’EFTA. Le candidature chiudono il 14 Settembre. L’Istituto per il Futuro della Vita ha anche scritto un articolo che delinea i motivi per cui gli esperti dovrebbero unirsi al panel.

Primo anniversario dell’Ufficio AI dell’UE

L’Ufficio AI dell’UE sta celebrando il suo primo anniversario, avendo raggiunto oltre 100 esperti in politica, ricerca e innovazione, sanità, regolamentazione e cooperazione internazionale. Uno dei loro traguardi è stato l’implementazione dell’AI Act, creando linee guida pratiche, strumenti e strutture di governance. Tra i risultati chiave ci sono l’emissione di linee guida sulla definizione e sulle proibizioni dei sistemi di IA, l’istituzione di un repository di alfabetizzazione sull’IA e il lavoro con il Consiglio AI degli Stati membri. Il Panel Scientifico è in fase di istituzione, con un Forum Consultivo in arrivo. Le iniziative imminenti includono la pubblicazione di un Codice di Pratica sull’IA di uso generale (GPAI), sviluppato con il contributo di oltre 1.000 esperti, da valutare entro Agosto 2025. Sono in fase di sviluppo linee guida che chiariscono i concetti di GPAI e attualmente è aperta una consultazione pubblica sui sistemi di IA ad alto rischio.

Analisi

Lettera che chiede regole GPAI a favore delle imprese e dei cittadini europei: Una coalizione di ricercatori, rappresentanti della società civile, dell’industria e del mondo accademico, tra cui i premi Nobel Daron Acemoglu e Geoffrey Hinton, ha scritto al Presidente della Commissione Europea. La loro lettera esorta i leader dell’UE a resistere alle pressioni di chi attacca le norme sull’IA di uso generale (GPAI). La coalizione sostiene che l’UE può dimostrare la sua capacità di fornire strumenti favorevoli all’innovazione industriale, come il Codice di Pratica, senza compromettere la salute, la sicurezza e i diritti fondamentali. Il Codice di Pratica, sviluppato in nove mesi con ampio coinvolgimento degli stakeholder, facilita l’adempimento degli obblighi GPAI. Colpisce principalmente 5-15 grandi aziende e si allinea con le pratiche di gestione del rischio esistenti. La coalizione raccomanda tre elementi per una governance GPAI a prova di futuro: 1) test di terze parti obbligatori per i modelli di rischio sistemico nel Codice di Pratica per garantire salvaguardie efficaci e promuovere la fiducia; 2) meccanismi di revisione robusti che possano adattarsi rapidamente ai rischi emergenti e alle pratiche di sicurezza, comprese le aggiornamenti di emergenza per minacce imminenti; e 3) potenziare le capacità di enforcement dell’Ufficio AI espandendo l’unità di sicurezza dell’IA a 100 membri e il team di implementazione a 200, reclutando esperti di sicurezza IA di alto livello. La lettera è stata condivisa per la prima volta dal Financial Times.

Gli Stati Uniti affrontano un ambiente normativo complesso: Bella Zielinski e Jacob Wulff Wold di Euractiv hanno sostenuto che gli Stati Uniti affrontano un panorama normativo complesso nonostante critichino le normative tecnologiche dell’UE. Nel 2024, gli stati hanno introdotto quasi 700 leggi relative all’IA, di cui 113 sono diventate legge, e centinaia di altre sono state introdotte nel 2025. Stati come il Colorado e il Texas hanno adottato approcci completi simili all’AI Act dell’UE, mentre la California ha approvato una legislazione mirata su questioni specifiche come i deepfake e le repliche digitali. Meta ha lamentato alla Casa Bianca un “ambiente normativo inattuabile” con standard contraddittori che superano le restrizioni dell’UE. Tuttavia, questo mosaico normativo a livello statale potrebbe avvantaggiare l’applicazione dell’AI Act dell’UE contro le aziende statunitensi. L’amministrazione Trump ha spostato l’attenzione verso l’IA come strumento geopolitico, revocando l’ordine esecutivo di Biden sui rischi dell’IA e pianificando di migliorare il dominio globale dell’IA dell’America. Questo ambiente politico ostile potrebbe scoraggiare ulteriori legislazioni statali sull’IA. Le principali aziende tecnologiche stanno facendo pressioni per una regolamentazione federale che superi le leggi statali. L’esito – un mosaico statale o la deregolamentazione – potrebbe influenzare l’approccio normativo dell’UE.

La nuova legge sull’IA del Kazakistan ispirata dall’UE: Secondo Euractiv, il Kazakistan sta cercando di diventare la prima nazione dell’Asia Centrale a regolamentare in modo completo l’IA, traendo ispirazione dall’AI Act dell’UE. La bozza di “Legge sull’Intelligenza Artificiale”, che ha ricevuto l’approvazione iniziale dalla camera bassa del parlamento kazako a Maggio, dimostra il suo impegno verso una regolamentazione centrata sull’uomo. Secondo Shoplan Saimova dell’Istituto di Parlamentarismo, l’AI Act dell’UE serve come modello, e il Kazakistan mira a guidare piuttosto che seguire, sviluppando un quadro allineato alle priorità nazionali che costruisce fiducia tra gli esseri umani e i sistemi di IA, proteggendo al contempo gli interessi pubblici. La legislazione, sviluppata attraverso un’ampia consultazione degli stakeholder, cerca di governare l’IA in tutta la società. Tuttavia, un’analisi accademica recente da parte di studiosi kazaki identifica quattro principali carenze rispetto al quadro dell’UE: l’assenza di un chiaro sistema di classificazione dei rischi, requisiti di trasparenza algoritmica inadeguati, misure di protezione dei dati personali limitate e istituzioni insufficienti per l’applicazione.

Prospettive dell’IA generativa nell’UE: Il Centro Comune di Ricerca della Commissione Europea ha pubblicato un rapporto che esamina l’impatto dell’IA generativa (GenAI) all’interno dell’UE, concentrandosi su innovazione, produttività e cambiamento sociale. Sotto l’AI Act, molti sistemi GenAI rientrano nella categoria di “rischio limitato”, richiedendo ai fornitori di garantire che gli utenti sappiano di interagire con macchine e che il contenuto generato dall’IA sia identificabile. Questo include deepfake e contenuti di interesse pubblico. I sistemi GenAI possono anche far parte di applicazioni ad alto rischio o inaccettabili. Sebbene non siano esplicitamente menzionati nei casi di uso ad alto rischio, i GenAI potrebbero essere integrati in essi. Le pratiche vietate includono manipolazioni e inganni dannosi basati sull’IA, con esempi come chatbot che impersonano parenti o sistemi progettati per nascondere comportamenti indesiderati durante la valutazione. Poiché molti attuali modelli GenAI mostrano capacità di intelligenza artificiale di uso generale, affrontano gli obblighi pertinenti. L’Ufficio AI della Commissione sta sviluppando un Codice di Pratica per dettagliare queste regole basate sulle pratiche più avanzate.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...