Codice di Pratica GPAI: Nuove Regole per l’Intelligenza Artificiale in Europa

Il Codice di Pratica GPAI entra in vigore

Il Codice di Pratica per l’Intelligenza Artificiale di Uso Generale (GPAI) è stato recentemente pubblicato dalla Commissione Europea. Questo documento mira a supportare l’industria nel conformarsi agli obblighi della Legge sull’Intelligenza Artificiale riguardo a sicurezza, trasparenza e copyright per i modelli GPAI. Sviluppato da esperti indipendenti attraverso un processo multi-stakeholder, il Codice è stato pubblicato il 10 luglio 2025.

In un contesto in cui le normative sull’AI stanno diventando sempre più rigorose, il Codice offre un’opzione volontaria per i fornitori di modelli GPAI, riducendo il carico amministrativo e fornendo maggiore certezza legale rispetto ad altri metodi di conformità. Il Codice è suddiviso in tre capitoli: 1) Trasparenza, 2) Copyright (applicabile a tutti i fornitori di modelli GPAI sotto l’Articolo 53) e 3) Sicurezza e Sicurezza (rilevante solo per i fornitori di modelli avanzati con rischi sistemici sotto l’Articolo 55).

Invito alla firma del Codice di Pratica

Ufficialmente, l’Ufficio AI dell’UE ha invitato i fornitori di modelli GPAI a firmare il Codice di Pratica. I firmatari saranno pubblicamente elencati il 1 agosto 2025, un giorno prima che gli obblighi della Legge sull’AI per i fornitori GPAI entrino in vigore il 2 agosto 2025. Firmando, i fornitori segnalano la loro intenzione di aderire al Codice, beneficiando di una conformità semplificata agli obblighi della Legge sull’AI.

Linee guida della Commissione per i fornitori di GPAI

La Commissione Europea ha pubblicato delle linee guida per aiutare i fornitori di modelli GPAI a rispettare gli obblighi della Legge sull’AI che entreranno in vigore il 2 agosto 2025. Queste linee guida forniscono certezza legale lungo tutta la catena del valore dell’AI e completano il Codice di Pratica GPAI. La Commissione si aspetta che queste linee guida supportino un’applicazione fluida ed efficace della Legge sull’AI, aiutando attori dell’AI da start-up a grandi sviluppatori a innovare in modo sicuro e trasparente.

Forum Consultivo della Legge sull’AI

La Commissione ha aperto le candidature per il Forum Consultivo sotto la Legge sull’AI, invitando stakeholder della società civile, accademia, industria, PMI e start-up a contribuire all’attuazione responsabile della legislazione sull’AI. Questo forum servirà come corpo consultivo generale per la Commissione, fornendo esperti tecnici indipendenti su una vasta gamma di questioni relative alla Legge sull’AI.

Tender per la sicurezza GPAI

L’Ufficio AI dell’UE ha aperto un bando per un tender del valore di 9 milioni di euro per procurare supporto tecnico per l’applicazione della Legge sull’AI, concentrandosi sulla valutazione e sul monitoraggio dei rischi sistemici derivanti dai modelli GPAI. Questo programma, finanziato dal Programma Europa Digitale, mira a rafforzare la capacità dell’Ufficio AI di valutare e monitorare la conformità, in particolare riguardo ai sistemi GPAI che presentano rischi significativi per la sicurezza pubblica e i diritti fondamentali.

Reazioni dell’Industria

Le reazioni delle aziende tecnologiche al Codice di Pratica GPAI sono state variegate. Alcuni grandi nomi hanno espresso la loro intenzione di firmare, come OpenAI, che ha annunciato di volerlo fare a condizione di un’approvazione formale da parte del Consiglio AI. Al contrario, Meta ha rifiutato di firmare, definendo il Codice un eccesso normativo che ostacolerebbe la crescita.

Le associazioni industriali hanno sollevato preoccupazioni sull’implementazione, affermando che le misure complesse oltre l’ambito della Legge sull’AI potrebbero influenzare la certezza legale e la diffusione nell’industria.

Il Codice come avanzamento della sicurezza AI

Secondo esperti, il Codice di Pratica offre forti incentivi per i sviluppatori di AI a adottare pratiche più sicure. Le aziende che seguono il Codice ottengono una presunzione di conformità con gli articoli pertinenti della Legge sull’AI, facilitando la loro posizione legale. Questo rappresenta un significativo progresso verso lo sviluppo di AI più sicura e responsabile.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...