Falsa sicurezza nell’Atto sull’IA dell’UE: tra lacune epistemiche e trappole burocratiche

A False Confidence nel Regolamento AI dell’UE: Lacune Epistemiche e Trappole Burocratiche

Il 10 luglio 2025, la Commissione Europea ha rilasciato la bozza finale del Codice di Pratica per l’Intelligenza Artificiale di Uso Generale (GPAI), un “codice progettato per aiutare l’industria a conformarsi alle regole del Regolamento AI”. Questo codice è stato sviluppato a partire da ottobre 2024, quando è iniziato il processo di redazione iterativa dopo un incontro iniziale nel settembre 2024. La Commissione aveva pianificato di pubblicare la bozza finale entro il 2 maggio 2025, ma il successivo ritardo ha suscitato ampie speculazioni, che vanno dalle preoccupazioni per il lobbismo industriale a tensioni ideologiche più profonde tra i sostenitori dell’innovazione e della regolamentazione.

Tuttavia, oltre a queste narrazioni, emerge un problema più fondamentale: un disconnesso epistemico e concettuale al centro del Regolamento sull’Intelligenza Artificiale dell’UE, in particolare nel suo approccio all’AI di uso generale (GPAI). L’attuale versione, che include tre capitoli che trattano di “Trasparenza”, “Copyright” e “Sicurezza e Protezione”, non affronta questi problemi centrali.

L’invenzione legale dell’AI di uso generale

Secondo l’Art. 3(63) del Regolamento sull’AI dell’UE, un “modello di intelligenza artificiale di uso generale” è:

“un modello di intelligenza artificiale, incluso dove tale modello è addestrato con una grande quantità di dati utilizzando la supervisione autonoma su larga scala, che mostra una significativa genericità e è capace di eseguire competentemente una vasta gamma di compiti distinti indipendentemente dal modo in cui il modello è immesso sul mercato e che può essere integrato in una varietà di sistemi o applicazioni downstream, ad eccezione dei modelli di intelligenza artificiale utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato.”

Ciò a cui fa riferimento la legge si allinea con ciò che la comunità di ricerca sull’AI definisce come modello di fondazione – un termine ampiamente utilizzato per descrivere modelli su larga scala addestrati su set di dati ampi per supportare più compiti. Questi modelli fungono da basi che possono essere ulteriormente ottimizzate o adattate per casi d’uso particolari.

È cruciale notare che il termine “AI di uso generale” (GPAI) non è emerso dalla comunità di ricerca sull’AI. Si tratta di un costrutto legale introdotto dal Regolamento sull’AI dell’UE per definire retroattivamente certi tipi di sistemi AI. Prima di ciò, ‘GPAI’ aveva poca o nessuna presenza nel discorso accademico. In questo senso, la legge non solo ha assegnato un significato normativo al termine, ma ha anche creato effettivamente una nuova categoria – una che rischia di distorcere come tali sistemi sono realmente compresi e sviluppati nella pratica.

I limiti di un approccio basato sul rischio

Il Regolamento sull’AI dell’UE adotta un approccio normativo basato sul rischio. L’Articolo 3(2) definisce il rischio come “la combinazione della probabilità di un verificarsi di danno e la gravità di tale danno”. Questa definizione trae origine da tradizioni legali e attuariali classiche, dove si assume che i danni siano prevedibili, le probabilità possano essere ragionevolmente assegnate e i rischi possano essere valutati di conseguenza. Tuttavia, l’AI – in particolare i modelli di fondazione – complica questo quadro.

I modelli di fondazione sono caratterizzati da caratteristiche difficili da quantificare, inclusa la loro natura probabilistica e augmentativa e interazione con ambienti socio-tecnici complessi, dove i danni non possono essere chiaramente previsti. Di conseguenza, gli approcci tradizionali di valutazione del rischio non sono in grado di tenere adeguatamente conto del loro comportamento o impatto e possono produrre una falsa sensazione di fiducia per i regolatori.

La trappola burocratica della certezza legale e la necessità di una governance anticipatoria delle tecnologie emergenti

L’analisi di Max Weber sulla burocrazia aiuta a spiegare perché il disallineamento tra le assunzioni incorporate negli strumenti legali e le realtà delle tecnologie fosse da aspettarsi. Weber descrisse la burocrazia come una “gabbia di ferro” di razionalizzazione, dipendente da regole formali, gerarchie e chiarezza categoriale. Le burocrazie richiedono una chiara categorizzazione, altrimenti non possono funzionare efficacemente.

Le definizioni precise del Regolamento sull’AI dell’UE – come quelle per “fornitore”, “implementatore” e soprattutto “modello di intelligenza artificiale di uso generale” – riflettono questa logica burocratica. Tuttavia, come avvertì Weber, questo tipo di razionalità può portare a schemi di pensiero eccessivamente rigidi e formalizzati. Trattando le categorie dell’AI come scientificamente definite, la legge esemplifica un formalismo legale che può ostacolare la governance adattativa.

Per i responsabili politici, il problema non è accademico: regole che congelano categorie troppo presto rischiano di intrappolare l’Europa in un quadro concettuale obsoleto che sarà difficile da rivedere man mano che la ricerca sull’AI avanza. Pertanto, è essenziale sviluppare meccanismi di governance che anticipino il cambiamento concettuale e consentano revisioni iterative, facendo affidamento su organismi di monitoraggio multidisciplinari piuttosto che su definizioni statiche e problematiche.

In sintesi, il ritardo nella pubblicazione del Codice di Pratica GPAI non dovrebbe essere visto come un momento di conflitto, ma piuttosto come un’opportunità per considerare un framework più appropriato per governare le tecnologie emergenti – uno che accetta l’incertezza come norma, si basa su una sorveglianza adattativa e tratta le categorie come provvisorie piuttosto che definitive.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...