Il Piano d’Azione dell’UE per l’IA Affronta Lacune nelle Regole di Privacy e Conformità
Il Commissario Europeo ha rilasciato il Piano d’Azione per l’IA il 9 aprile 2025, delineando una strategia industriale per potenziare le capacità dell’IA in tutta l’UE. Il piano si concentra sulla costruzione di infrastrutture informatiche, sull’accesso a dati di alta qualità, sul supporto all’adozione in vari settori e sullo sviluppo di talenti nel campo dell’IA.
Il Piano d’Azione dell’UE e il Blueprint Economico di OpenAI, pubblicato pochi giorni prima, sembrano allinearsi su molte questioni. Entrambi richiedono investimenti su larga scala in infrastrutture di calcolo, dati utilizzabili, regolamentazioni semplificate e formazione in STEM.
La Costruzione di Infrastrutture è Focalizzata, ma l’Esecuzione è Vaga
Il Commissario desidera aumentare la capacità di calcolo dell’Europa attraverso la creazione di Fabbriche di IA e Gigafabbriche, progettate per ospitare 100.000 chip di IA di alta gamma. Queste strutture mirano a supportare le startup e le comunità di ricerca dell’UE. L’iniziativa InvestAI da 20 miliardi di euro finanzierà questo sforzo.
Tuttavia, il Piano non fornisce ancora dettagli su come queste Gigafabbriche ad alta intensità di dati gestiranno il loro consumo energetico o un cronoprogramma per le implementazioni.
Obiettivi di Accesso ai Dati in Conflitto con le Regole di Privacy Esistenti
Sia il Piano d’Azione che OpenAI concordano sull’importanza dell’accesso a dati di alta qualità. Il Commissario intende costruire Laboratori di Dati e avviare una Strategia per le Unioni di Dati per riunire set di dati provenienti da diversi settori.
Tuttavia, il GDPR aggiornato impone forti restrizioni su come i dati, in particolare i dati personali, possono essere riutilizzati. Anche i dati anonimizzati presentano incertezze legali, a seconda di come vengono gestiti. Il Piano non spiega come queste nuove iniziative di dati rimarranno conformi alle regole di privacy esistenti.
Nessun Percorso Chiaro tra il GDPR e l’AI Act
Attualmente, l’AI Act e il GDPR operano in parallelo senza collegamenti diretti. L’AI Act si concentra sulla regolamentazione dei sistemi di IA ad alto rischio, mentre il GDPR si occupa dell’uso dei dati personali, compresi il profiling e le decisioni automatizzate. Per gli sviluppatori che costruiscono sistemi che rientrano in entrambe le categorie, non esistono indicazioni chiare su come soddisfare entrambe le normative.
Le Startup Vengono Menzionate, ma il Supporto è Limitato
Il Piano d’Azione e le riforme del GDPR promettono di ridurre il carico per le piccole aziende attraverso una compliance semplificata. Tuttavia, in pratica, questi supporti si traducono principalmente in documentazione e sportelli informativi, piuttosto che in finanziamenti o assistenza legale.
I Modelli Fondamentali Non Si Adattano all’Attuale Modello Legale
L’AI Act classifica i sistemi di IA in base al livello di rischio al momento della creazione. Questo approccio non funziona bene per i modelli fondamentali, che sono generali e si evolvono in base all’uso. Questi modelli possono diventare ad alto rischio dopo il loro utilizzo, ma la legge non contempla questa possibilità.
Perché Questo È Importante
La Commissione Europea e OpenAI hanno una visione chiara dello sviluppo dell’IA in Europa. Tuttavia, le lacune nell’applicazione, le regole di privacy che si scontrano con l’innovazione e la mancanza di un modo chiaro per regolamentare i modelli fondamentali complicano la messa in pratica dei piani sull’IA dell’UE.
Questo scenario serve da monito per paesi come l’India, che stanno ancora sviluppando politiche per l’IA, sull’importanza di integrare infrastruttura e regolamentazione.