Quando la guida diventa eccessiva

Quando la Guida Diventa Eccessiva

Dal 2 agosto 2025, i fornitori di modelli di “Intelligenza Artificiale di Uso Generale” (GPAI) – come GPT, DALL-E, Gemini e Midjourney – affronteranno obblighi di vasta portata ai sensi della Legge sull’IA dell’UE. L’emergere di questi modelli di linguaggio (multimodali) alla fine del 2022 ha spinto i legislatori europei a includere frettolosamente le normative GPAI nella Legge sull’IA. I fornitori di modelli GPAI devono fornire documentazione tecnica, implementare una politica sul copyright, pubblicare un riepilogo dei contenuti di formazione e, per i modelli particolarmente potenti che possono comportare rischi sistemici, intraprendere misure di valutazione e mitigazione del rischio.

Per dimostrare la conformità, la Legge sull’IA consente ai fornitori di fare affidamento su un “Codice di Pratica”, attualmente in fase di redazione da oltre 1000 stakeholder sotto l’egida dell’Ufficio dell’IA, e previsto per essere adottato dalla Commissione Europea prima di agosto 2025.

Co-regolazione come strategia centrale della Legge sull’IA

La Legge sull’IA si basa sul Nuovo Quadro Legislativo (NLF), che si affida alla co-regolazione: un dialogo strutturato tra i regolatori e l’industria per tradurre obblighi legali generali in standard tecnici. Invece di specificare dettagli tecnici nella legislazione, la Legge sull’IA definisce requisiti essenziali e lascia il compito di concretizzazione alle organizzazioni di standardizzazione europee CEN e CENELEC attraverso il loro comitato congiunto, JTC21.

Gli standard armonizzati forniscono certezza legale: una volta adottati dalla Commissione, la conformità a questi standard crea una presunzione di conformità con la Legge sull’IA. Sebbene le aziende possano, in teoria, sviluppare le proprie soluzioni tecniche, le difficoltà amministrative e i costi aggiuntivi coinvolti di solito le portano a seguire gli standard. Riconoscendo questi effetti, la Corte di Giustizia Europea ha costantemente stabilito che gli standard armonizzati fanno parte del diritto dell’UE e devono essere sviluppati e pubblicati in conformità con lo stato di diritto.

Il Codice di Pratica come “parte del diritto dell’UE”

Sebbene siano previsti standard armonizzati per i modelli GPAI, gli sforzi di standardizzazione in questo dominio sono ancora in una fase preliminare. Per colmare questo divario, la Legge sull’IA introduce uno strumento intermedio: il Codice di Pratica. Una volta adottato dalla Commissione Europea attraverso un atto di attuazione, la conformità al Codice garantirà una presunzione di conformità ai sensi della Legge sull’IA – simile agli standard armonizzati. In teoria, i fornitori possono scegliere di non fare affidamento sul Codice e dimostrare la conformità attraverso mezzi alternativi. Tuttavia, nella pratica, il Codice plasmerà probabilmente l’interpretazione e l’applicazione degli obblighi GPAI da parte della Commissione.

Data la sua rilevanza legale e pratica, non c’è dubbio che anche la CGUE riconoscerà il Codice come “parte del diritto dell’UE”. Di conseguenza, il Codice deve essere sviluppato in conformità con lo stato di diritto – sia procedurale che sostanziale. Tuttavia, attualmente questo non è il caso.

Un processo non regolamentato con 1.000 stakeholder

Mentre lo sviluppo di standard armonizzati è governato dal Regolamento 1025/2012, la redazione del Codice di Pratica si basa esclusivamente sull’Articolo 56 della Legge sull’IA, che autorizza vagamente l’Ufficio dell’IA a invitare stakeholder.

Il risultato è un processo senza regole strutturate, senza trasparenza e senza salvaguardie democratiche. Inizialmente, l’Ufficio dell’IA aveva pianificato di redigere il Codice a porte chiuse. In risposta alle critiche, si è spostato all’estremo opposto, lanciando una consultazione con quasi 1.000 stakeholder — coordinata da 10 esperti, inclusi alcuni non europei.

Con una tempistica estremamente compressa e un numero di partecipanti così elevato, il processo ha lasciato poco spazio per una riflessione approfondita o un input bilanciato. Ancora più preoccupante, accademici — molti senza esperienza legale o esperienza nella standardizzazione tecnica — stanno guidando lo sforzo di redazione. Eppure, il Codice, una volta adottato, definirà le aspettative degli obblighi GPAI e influenzerà l’applicazione. Remarkably, questo sta accadendo senza una partecipazione significativa da parte di esperti di standardizzazione, senza input dal Parlamento Europeo e senza supervisione da parte degli Stati Membri.

Per essere chiari, questa critica non intende mettere in discussione l’expertise tecnica dei presidenti e degli stakeholder coinvolti o la loro disponibilità a considerare prospettive diverse. Piuttosto, la questione principale è che il processo di redazione non è governato da regole procedurali legali, ma è diventato uno sforzo dall’alto verso il basso per regolare i modelli GPAI in un breve lasso di tempo – tutto mentre le discussioni in ISO/IEC e CEN/CENELEC sugli standard GPAI sono ancora in una fase preliminare, per lo più informale.

Il Codice di Pratica come un cavallo di Troia per rimodellare la Legge sull’IA?

Il contenuto della bozza è altrettanto preoccupante. Mentre il suo scopo è aiutare i fornitori a conformarsi agli obblighi esistenti, la bozza attuale va oltre la mera chiarificazione – introducendo nuovi requisiti non previsti dalla Legge sull’IA.

Un esempio è il ruolo proposto di “valutatori esterni” prima del rilascio di modelli GPAI con rischi sistemici, che non è previsto dalla Legge sull’IA. La bozza impone ai fornitori di ottenere valutazioni esterne dei rischi sistemici, comprese le valutazioni dei modelli, prima di immettere i loro modelli sul mercato. Tuttavia, la Legge sull’IA stessa non impone questo requisito – richiede solo test avversariali delle valutazioni dei modelli, non valutazioni indipendenti esterne dei rischi.

Un altro esempio riguarda il copyright: la misura I.2.4 della bozza richiede agli sviluppatori di modelli GPAI di fare sforzi ragionevoli per determinare se i contenuti protetti sono stati raccolti da un crawler conforme a robots.txt – un obbligo non imposto dalla Legge sull’IA. Inoltre, la misura I.2.5 obbliga i fornitori di modelli GPAI a prendere misure ragionevoli per mitigare il rischio che i sistemi AI successivi generino ripetutamente contenuti in violazione del copyright e a vietare tali usi nei loro termini e condizioni. Tuttavia, questi requisiti non si trovano nella Legge sull’IA né nella Direttiva sul Copyright 2019/790, che affronta solo la responsabilità primaria.

Ancora una volta, la questione non è se questi requisiti siano ragionevoli, ma che il solo scopo del Codice è chiarire gli obblighi della Legge sull’IA, non ridefinirli. Pertanto, il Codice non deve essere utilizzato come un cavallo di Troia per rimodellare la Legge sull’IA secondo preferenze politiche – eludendo le procedure democratiche.

Prossimi passi: adottare o non adottare il Codice di Pratica

Cosa succede ora? Il Codice di Pratica entrerà in vigore solo se approvato dalla Commissione attraverso un atto di attuazione ai sensi dell’Articolo 56 della Legge sull’IA. A differenza degli atti delegati, gli atti di attuazione non consentono alla Commissione di modificare o integrare la legislazione di base, ovvero la Legge sull’IA. Come confermato dalla Corte di Giustizia Europea, gli atti di attuazione “non possono né modificare né integrare l’atto legislativo, neanche per quanto riguarda i suoi elementi non essenziali”.

Quindi, la Commissione e il Consiglio dell’IA non devono semplicemente approvare la bozza attuale. Invece, entrambe le entità dovrebbero condurre una revisione critica e approfondita per garantire che le misure proposte siano davvero necessarie per l’attuazione e non contraddicano o superino le disposizioni della Legge sull’IA.

Qualsiasi cosa meno di questo non solo minerebbe il compromesso politico accuratamente negoziato tra Parlamento e Consiglio nella Legge sull’IA, ma porterebbe anche a un eccesso incostituzionale dei poteri di attuazione della Commissione.

More Insights

Governanza dell’AI in Salute: Tra Innovazione e Sicurezza

Negli ultimi sei mesi, il panorama normativo sull'IA ha subito cambiamenti monumentali, con una crescente retorica che considera la regolamentazione come un ostacolo all'innovazione. È fondamentale...

Regole Ambigue: L’Industria AI Chiede un Rinvio della Legge Fondamentale

L'industria dell'IA esprime preoccupazioni riguardo agli standard normativi ambigui della legge fondamentale sull'IA, temendo che possano ostacolare la crescita del settore. Recentemente, Huang...

GDPR e AI: Rispettare la Privacy nel Marketing

Gli esperti di marketing devono affrontare le sfide della privacy dei dati con la conformità al GDPR e il nuovo EU AI Act. Queste normative richiedono trasparenza e consenso chiaro nell'uso dei dati...

La Piramide del Rischio nell’Atto UE sull’IA

Una delle caratteristiche distintive dell'EU AI Act è il suo approccio basato sul rischio. I sistemi di intelligenza artificiale non sono trattati allo stesso modo; come vengono regolati dipende dal...

AI agenti: le nuove frontiere della sicurezza e della regolamentazione

Le aziende di intelligenza artificiale affermano che le attuali normative possono governare l'intelligenza artificiale agentica, considerata la prossima evoluzione dell'IA generativa. Gli sviluppatori...

Divieto di AI nelle riunioni online: una scelta controversa

La Commissione Europea ha vietato l'uso di assistenti virtuali basati sull'IA durante le riunioni online, nonostante la crescente popolarità di tali strumenti. Questo divieto ha suscitato...

Riformare le Regole dell’AI: Un Futuro per l’Innovazione in Europa

OpenAI sollecita l'Unione Europea a semplificare le normative sull'intelligenza artificiale per evitare di soffocare l'innovazione e la competitività globale. La società afferma che regole...

Progettare Fiducia nell’AI Responsabile

L'integrazione rapida dell'intelligenza artificiale (AI) nella tecnologia quotidiana ha portato a grandi opportunità, ma anche a sfide etiche significative. I progettisti di prodotti stanno...

Interoperabilità nell’IA: Un Futuro Senza Fratture

Mentre ci troviamo a un punto critico nello sviluppo dell'IA, emerge una sfida di governance che potrebbe soffocare l'innovazione e creare divisioni digitali globali. L'attuale paesaggio della...