Falsa sicurezza nell’Atto sull’IA dell’UE: tra lacune epistemiche e trappole burocratiche

A False Confidence nel Regolamento AI dell’UE: Lacune Epistemiche e Trappole Burocratiche

Il 10 luglio 2025, la Commissione Europea ha rilasciato la bozza finale del Codice di Pratica per l’Intelligenza Artificiale di Uso Generale (GPAI), un “codice progettato per aiutare l’industria a conformarsi alle regole del Regolamento AI”. Questo codice è stato sviluppato a partire da ottobre 2024, quando è iniziato il processo di redazione iterativa dopo un incontro iniziale nel settembre 2024. La Commissione aveva pianificato di pubblicare la bozza finale entro il 2 maggio 2025, ma il successivo ritardo ha suscitato ampie speculazioni, che vanno dalle preoccupazioni per il lobbismo industriale a tensioni ideologiche più profonde tra i sostenitori dell’innovazione e della regolamentazione.

Tuttavia, oltre a queste narrazioni, emerge un problema più fondamentale: un disconnesso epistemico e concettuale al centro del Regolamento sull’Intelligenza Artificiale dell’UE, in particolare nel suo approccio all’AI di uso generale (GPAI). L’attuale versione, che include tre capitoli che trattano di “Trasparenza”, “Copyright” e “Sicurezza e Protezione”, non affronta questi problemi centrali.

L’invenzione legale dell’AI di uso generale

Secondo l’Art. 3(63) del Regolamento sull’AI dell’UE, un “modello di intelligenza artificiale di uso generale” è:

“un modello di intelligenza artificiale, incluso dove tale modello è addestrato con una grande quantità di dati utilizzando la supervisione autonoma su larga scala, che mostra una significativa genericità e è capace di eseguire competentemente una vasta gamma di compiti distinti indipendentemente dal modo in cui il modello è immesso sul mercato e che può essere integrato in una varietà di sistemi o applicazioni downstream, ad eccezione dei modelli di intelligenza artificiale utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato.”

Ciò a cui fa riferimento la legge si allinea con ciò che la comunità di ricerca sull’AI definisce come modello di fondazione – un termine ampiamente utilizzato per descrivere modelli su larga scala addestrati su set di dati ampi per supportare più compiti. Questi modelli fungono da basi che possono essere ulteriormente ottimizzate o adattate per casi d’uso particolari.

È cruciale notare che il termine “AI di uso generale” (GPAI) non è emerso dalla comunità di ricerca sull’AI. Si tratta di un costrutto legale introdotto dal Regolamento sull’AI dell’UE per definire retroattivamente certi tipi di sistemi AI. Prima di ciò, ‘GPAI’ aveva poca o nessuna presenza nel discorso accademico. In questo senso, la legge non solo ha assegnato un significato normativo al termine, ma ha anche creato effettivamente una nuova categoria – una che rischia di distorcere come tali sistemi sono realmente compresi e sviluppati nella pratica.

I limiti di un approccio basato sul rischio

Il Regolamento sull’AI dell’UE adotta un approccio normativo basato sul rischio. L’Articolo 3(2) definisce il rischio come “la combinazione della probabilità di un verificarsi di danno e la gravità di tale danno”. Questa definizione trae origine da tradizioni legali e attuariali classiche, dove si assume che i danni siano prevedibili, le probabilità possano essere ragionevolmente assegnate e i rischi possano essere valutati di conseguenza. Tuttavia, l’AI – in particolare i modelli di fondazione – complica questo quadro.

I modelli di fondazione sono caratterizzati da caratteristiche difficili da quantificare, inclusa la loro natura probabilistica e augmentativa e interazione con ambienti socio-tecnici complessi, dove i danni non possono essere chiaramente previsti. Di conseguenza, gli approcci tradizionali di valutazione del rischio non sono in grado di tenere adeguatamente conto del loro comportamento o impatto e possono produrre una falsa sensazione di fiducia per i regolatori.

La trappola burocratica della certezza legale e la necessità di una governance anticipatoria delle tecnologie emergenti

L’analisi di Max Weber sulla burocrazia aiuta a spiegare perché il disallineamento tra le assunzioni incorporate negli strumenti legali e le realtà delle tecnologie fosse da aspettarsi. Weber descrisse la burocrazia come una “gabbia di ferro” di razionalizzazione, dipendente da regole formali, gerarchie e chiarezza categoriale. Le burocrazie richiedono una chiara categorizzazione, altrimenti non possono funzionare efficacemente.

Le definizioni precise del Regolamento sull’AI dell’UE – come quelle per “fornitore”, “implementatore” e soprattutto “modello di intelligenza artificiale di uso generale” – riflettono questa logica burocratica. Tuttavia, come avvertì Weber, questo tipo di razionalità può portare a schemi di pensiero eccessivamente rigidi e formalizzati. Trattando le categorie dell’AI come scientificamente definite, la legge esemplifica un formalismo legale che può ostacolare la governance adattativa.

Per i responsabili politici, il problema non è accademico: regole che congelano categorie troppo presto rischiano di intrappolare l’Europa in un quadro concettuale obsoleto che sarà difficile da rivedere man mano che la ricerca sull’AI avanza. Pertanto, è essenziale sviluppare meccanismi di governance che anticipino il cambiamento concettuale e consentano revisioni iterative, facendo affidamento su organismi di monitoraggio multidisciplinari piuttosto che su definizioni statiche e problematiche.

In sintesi, il ritardo nella pubblicazione del Codice di Pratica GPAI non dovrebbe essere visto come un momento di conflitto, ma piuttosto come un’opportunità per considerare un framework più appropriato per governare le tecnologie emergenti – uno che accetta l’incertezza come norma, si basa su una sorveglianza adattativa e tratta le categorie come provvisorie piuttosto che definitive.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...