A False Confidence nel Regolamento AI dell’UE: Lacune Epistemiche e Trappole Burocratiche
Il 10 luglio 2025, la Commissione Europea ha rilasciato la bozza finale del Codice di Pratica per l’Intelligenza Artificiale di Uso Generale (GPAI), un “codice progettato per aiutare l’industria a conformarsi alle regole del Regolamento AI”. Questo codice è stato sviluppato a partire da ottobre 2024, quando è iniziato il processo di redazione iterativa dopo un incontro iniziale nel settembre 2024. La Commissione aveva pianificato di pubblicare la bozza finale entro il 2 maggio 2025, ma il successivo ritardo ha suscitato ampie speculazioni, che vanno dalle preoccupazioni per il lobbismo industriale a tensioni ideologiche più profonde tra i sostenitori dell’innovazione e della regolamentazione.
Tuttavia, oltre a queste narrazioni, emerge un problema più fondamentale: un disconnesso epistemico e concettuale al centro del Regolamento sull’Intelligenza Artificiale dell’UE, in particolare nel suo approccio all’AI di uso generale (GPAI). L’attuale versione, che include tre capitoli che trattano di “Trasparenza”, “Copyright” e “Sicurezza e Protezione”, non affronta questi problemi centrali.
L’invenzione legale dell’AI di uso generale
Secondo l’Art. 3(63) del Regolamento sull’AI dell’UE, un “modello di intelligenza artificiale di uso generale” è:
“un modello di intelligenza artificiale, incluso dove tale modello è addestrato con una grande quantità di dati utilizzando la supervisione autonoma su larga scala, che mostra una significativa genericità e è capace di eseguire competentemente una vasta gamma di compiti distinti indipendentemente dal modo in cui il modello è immesso sul mercato e che può essere integrato in una varietà di sistemi o applicazioni downstream, ad eccezione dei modelli di intelligenza artificiale utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato.”
Ciò a cui fa riferimento la legge si allinea con ciò che la comunità di ricerca sull’AI definisce come modello di fondazione – un termine ampiamente utilizzato per descrivere modelli su larga scala addestrati su set di dati ampi per supportare più compiti. Questi modelli fungono da basi che possono essere ulteriormente ottimizzate o adattate per casi d’uso particolari.
È cruciale notare che il termine “AI di uso generale” (GPAI) non è emerso dalla comunità di ricerca sull’AI. Si tratta di un costrutto legale introdotto dal Regolamento sull’AI dell’UE per definire retroattivamente certi tipi di sistemi AI. Prima di ciò, ‘GPAI’ aveva poca o nessuna presenza nel discorso accademico. In questo senso, la legge non solo ha assegnato un significato normativo al termine, ma ha anche creato effettivamente una nuova categoria – una che rischia di distorcere come tali sistemi sono realmente compresi e sviluppati nella pratica.
I limiti di un approccio basato sul rischio
Il Regolamento sull’AI dell’UE adotta un approccio normativo basato sul rischio. L’Articolo 3(2) definisce il rischio come “la combinazione della probabilità di un verificarsi di danno e la gravità di tale danno”. Questa definizione trae origine da tradizioni legali e attuariali classiche, dove si assume che i danni siano prevedibili, le probabilità possano essere ragionevolmente assegnate e i rischi possano essere valutati di conseguenza. Tuttavia, l’AI – in particolare i modelli di fondazione – complica questo quadro.
I modelli di fondazione sono caratterizzati da caratteristiche difficili da quantificare, inclusa la loro natura probabilistica e augmentativa e interazione con ambienti socio-tecnici complessi, dove i danni non possono essere chiaramente previsti. Di conseguenza, gli approcci tradizionali di valutazione del rischio non sono in grado di tenere adeguatamente conto del loro comportamento o impatto e possono produrre una falsa sensazione di fiducia per i regolatori.
La trappola burocratica della certezza legale e la necessità di una governance anticipatoria delle tecnologie emergenti
L’analisi di Max Weber sulla burocrazia aiuta a spiegare perché il disallineamento tra le assunzioni incorporate negli strumenti legali e le realtà delle tecnologie fosse da aspettarsi. Weber descrisse la burocrazia come una “gabbia di ferro” di razionalizzazione, dipendente da regole formali, gerarchie e chiarezza categoriale. Le burocrazie richiedono una chiara categorizzazione, altrimenti non possono funzionare efficacemente.
Le definizioni precise del Regolamento sull’AI dell’UE – come quelle per “fornitore”, “implementatore” e soprattutto “modello di intelligenza artificiale di uso generale” – riflettono questa logica burocratica. Tuttavia, come avvertì Weber, questo tipo di razionalità può portare a schemi di pensiero eccessivamente rigidi e formalizzati. Trattando le categorie dell’AI come scientificamente definite, la legge esemplifica un formalismo legale che può ostacolare la governance adattativa.
Per i responsabili politici, il problema non è accademico: regole che congelano categorie troppo presto rischiano di intrappolare l’Europa in un quadro concettuale obsoleto che sarà difficile da rivedere man mano che la ricerca sull’AI avanza. Pertanto, è essenziale sviluppare meccanismi di governance che anticipino il cambiamento concettuale e consentano revisioni iterative, facendo affidamento su organismi di monitoraggio multidisciplinari piuttosto che su definizioni statiche e problematiche.
In sintesi, il ritardo nella pubblicazione del Codice di Pratica GPAI non dovrebbe essere visto come un momento di conflitto, ma piuttosto come un’opportunità per considerare un framework più appropriato per governare le tecnologie emergenti – uno che accetta l’incertezza come norma, si basa su una sorveglianza adattativa e tratta le categorie come provvisorie piuttosto che definitive.
 
								 
															 
						
							
		 
						
							
		 
						
							
		 
						
							
		 
						
							
		 
						
							
		 
						
							
		 
						
							
		