Codice di Pratica per l’IA: Chiarezza e Volontarietà nella Conformità

Codice di Pratica per Modelli di Intelligenza Artificiale di Uso Generale Pubblicato: La Conformità è Diventata Più Chiara (La Partecipazione Resta Facoltativa)

Il 11 luglio 2025, la Commissione Europea ha pubblicato la versione finale del Codice di Pratica per l’Intelligenza Artificiale di Uso Generale (GPAI). Questo codice è progettato per servire come strumento per i fornitori di modelli GPAI, aiutandoli a rispettare le disposizioni di trasparenza, copyright e sicurezza stabilite nell’AI Act (articoli 53 e 55), che entrerà in vigore il 2 agosto 2025. L’adesione al codice è su base volontaria.

Sviluppato da esperti indipendenti attraverso un processo multi-stakeholder, il Codice di Pratica è strutturato in tre capitoli: (i) Trasparenza, (ii) Copyright, e (iii) Sicurezza e Protezione. Quest’ultimo capitolo è destinato ai fornitori di modelli GPAI che presentano un rischio sistemico e non sarà discusso in questo avviso.

Capitolo 1: Trasparenza

I fornitori di modelli GPAI sono soggetti agli obblighi di trasparenza stabiliti nell’articolo 53(1)(a) e (b) dell’AI Act. Pertanto, devono redigere e aggiornare la documentazione sul funzionamento dei loro modelli GPAI e fornire tali informazioni all’Ufficio AI, alle autorità nazionali e ai fornitori di sistemi AI a valle che utilizzano i loro modelli GPAI. Oltre alle specifiche negli Allegati XI e XII dell’AI Act, i fornitori possono ora impegnarsi nel capitolo di Trasparenza del Codice di Pratica. Tre misure sono delineate nel Codice di Pratica:

Misura 1.1 – Redazione e mantenimento della documentazione del modello

Ai sensi dell’AI Act, i fornitori di modelli GPAI devono redigere e aggiornare la documentazione che copre, tra le altre cose, i compiti che il modello GPAI può svolgere, il tipo e la natura dei sistemi AI in cui può essere integrato, le politiche di uso accettabile, le informazioni tecniche (architettura, parametri, modalità, formati di input e output), informazioni sulla distribuzione e la licenza. Gli obblighi variano leggermente a seconda che la documentazione sia destinata all’Ufficio AI e alle autorità nazionali (Allegato XI), o ai fornitori a valle (Allegato XII).

Il risultato più concreto del Codice di Pratica è il Modulo di Documentazione del Modello. Questo modulo contiene le informazioni minime che i fornitori di modelli GPAI si impegnano a fornire e possono “scegliere” di completare il Modulo di Documentazione del Modello per conformarsi a tale impegno.

Misura 1.2 – Fornire informazioni rilevanti

I fornitori di modelli GPAI devono divulgare pubblicamente le informazioni di contatto tramite il loro sito web o attraverso “altri mezzi appropriati”, affinché l’Ufficio AI e i fornitori a valle possano richiedere l’accesso alle informazioni rilevanti, in particolare quelle nel Modulo di Documentazione.

Misura 2.3 – Garantire la qualità, l’integrità e la sicurezza delle informazioni

I fornitori di modelli GPAI firmatari rimangono responsabili della qualità e dell’integrità delle informazioni documentate, che servono come prova di conformità con l’AI Act. Sono “incoraggiati” a garantire la qualità e la sicurezza delle informazioni e dei documenti seguendo “protocolli e standard tecnici stabiliti”.

Capitolo 2: Copyright

L’AI Act contiene riferimenti espliciti alla legge dell’Unione sul copyright e diritti connessi. L’interazione tra gli obblighi normativi nell’AI Act e la legge sul copyright (armonizzata a livello UE, ma sostanzialmente governata dalla legge nazionale) è complessa, non da ultimo a causa dell’effetto extraterritoriale dell’AI Act.

Il capitolo sul Copyright del Codice di Pratica fornisce indicazioni sulla corretta applicazione dell’obbligo per i fornitori di modelli GPAI di attuare una “politica per conformarsi alla legge dell’Unione sul copyright e diritti connessi”, in particolare, riguardo all’eccezione per il text e data mining e l'”opt-out” nell’articolo 4(3) della Direttiva 2019/790.

Misura 1.1 Redigere, mantenere aggiornato e attuare una politica sul copyright

In conformità con il Codice di Pratica, i fornitori di modelli GPAI dovrebbero “redigere, mantenere aggiornato e attuare” una politica sul copyright, che dovrebbero descrivere in un unico documento.

Misura 1.2 Riprodurre ed estrarre solo contenuti protetti da copyright legalmente accessibili quando si esplora il World Wide Web

I fornitori di modelli GPAI che utilizzano crawler web per raccogliere dati di addestramento sono tenuti a impegnarsi a non eludere le “misure di protezione tecnologica efficaci” e a escludere i siti web noti per violazioni persistenti e ripetute del copyright.

Misura 1.3 Identificare e conformarsi alle riserve di diritti quando si esplora il World Wide Web

I crawler web utilizzati dai fornitori di modelli GPAI devono osservare la riserva di diritti leggibile dalla macchina. Il Codice di Pratica menziona esplicitamente il Robot Exclusion Protocol (robots.txt) come protocollo da seguire.

Misura 1.4 Mitigare il rischio di output violativi del copyright

I fornitori di modelli GPAI sono tenuti ad adottare “sistemi tecnici appropriati e proporzionati” per prevenire output violativi e proibire l’uso violativo del copyright da parte degli utenti nella loro “politica di uso accettabile”.

Misura 1.5 Designare un punto di contatto e abilitare la presentazione di reclami

Infine, i firmatari si impegnano a designare un punto di contatto per la comunicazione elettronica con i titolari dei diritti interessati, mettendo in atto un meccanismo per gestire i reclami riguardanti la non conformità con gli impegni nel capitolo sul copyright del Codice di Pratica.

Conclusione

Con questo Codice di Pratica, la Commissione sta spingendo i fornitori di modelli GPAI a conformarsi all’AI Act in modo pratico, ma senza rimuovere le incertezze legali relative all’interpretazione dell’AI Act. Sebbene il Modulo di Documentazione del Modello sia potenzialmente uno strumento pratico utile, rimangono domande complesse riguardo all’interazione tra l’AI Act e la legge sul copyright a livello UE e nazionale.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...