Ritardi nel Codice GPAI: Implicazioni per il Futuro dell’IA nell’UE

Scadenza dell’AI Act mancata a causa del ritardo del Codice GPAI dell’UE

La versione finale del Codice di Pratica per l’Intelligenza Artificiale Generale (GPAI) dell’Unione Europea doveva essere pubblicata entro il 2 maggio. Tuttavia, la scadenza è passata senza che fosse presentato alcun documento definitivo.

L’Ufficio AI dell’UE ha confermato che il Codice è stato posticipato, con la pubblicazione della versione finale prevista per “agosto”. Questo suggerisce che potrebbe non rimanere molto tempo, se non altro, tra il rilascio della bozza finale e l’entrata in vigore delle disposizioni dell’AI Act relative ai fornitori di modelli GPAI il 2 agosto.

Che cos’è il Codice GPAI?

Per coloro che non lo sanno, il Codice GPAI è un codice di pratica volontario, redatto da “esperti indipendenti” con il coinvolgimento delle parti interessate, progettato per aiutare i fornitori di modelli GPAI a dimostrare la conformità ai loro obblighi secondo gli articoli 53 e 56 dell’AI Act dell’UE. Ciò include disposizioni relative a trasparenza, diritti d’autore, e sicurezza (vedi i nostri blog precedenti).

La maggior parte degli impegni stabiliti nel Codice GPAI si applica solo ai fornitori di modelli GPAI con rischio sistemico, ma alcuni si applicano a tutti i fornitori di modelli GPAI immessi nel mercato dell’UE. Questo include un impegno e misure correlate riguardanti i diritti d’autore, che hanno suscitato controversie e che molti seguono da vicino.

Perché il ritardo?

Al momento della scrittura, non sono state rilasciate dichiarazioni ufficiali dall’Ufficio AI dell’UE per spiegare il ritardo. Tuttavia, rapporti stampa hanno suggerito due motivi principali forniti alle parti interessate che partecipano al processo di redazione:

  1. Per dare ai partecipanti più tempo per fornire feedback sulla terza bozza del Codice GPAI.
  2. Per consentire ai partecipanti di rispondere alla consultazione separata e in corso della Commissione UE sulle linee guida GPAI proposte (aperta fino al 22 maggio), che cercano anche di chiarire determinati aspetti degli obblighi dei fornitori di modelli GPAI secondo l’AI Act dell’UE.

Altri hanno suggerito che il ritardo darà anche all’Ufficio AI dell’UE il tempo di valutare il supporto per il Codice GPAI da parte dei principali fornitori di IA. Infatti, una parte fondamentale del successo di questo Codice dipenderà dalla volontà dei fornitori di modelli GPAI di aderire ad esso.

Commento

Questo ritardo non è del tutto inaspettato. Far allineare tutti gli attori coinvolti sulla forma del Codice GPAI è sempre stato un compito arduo, specialmente date le aree controverse trattate, come quelle relative ai diritti d’autore. Con entrambe le parti che hanno opinioni forti e diametralmente opposte su alcune delle questioni trattate, ci si chiede se questo richiederà una soluzione politica.

È importante ricordare, tuttavia, che le aree trattate nel Codice GPAI non sono gli unici ostacoli che i grandi sviluppatori di modelli di IA devono affrontare per lanciare prodotti di IA nell’UE. Inoltre, stanno affrontando sfide dai regolatori europei dei dati mentre cercano di affrontare le questioni relative al GDPR sull’addestramento con dati personali.

Recentemente, l’Autorità irlandese per la protezione dei dati ha annunciato un’indagine su come i post pubblicamente accessibili degli utenti dell’UE sulla piattaforma X siano utilizzati per addestrare i modelli Grok LLM di X, concentrandosi in particolare sul trattamento dei dati personali in quei post e sulla legalità e trasparenza di tale trattamento.

More Insights

Ingegneri AI e Ingegneri Responsabili: Innovazione e Etica a Confronto

L'intelligenza artificiale ha fatto esplodere le sue capacità, portando gli ingegneri dell'IA a essere in prima linea nell'innovazione. Tuttavia, questa potenza comporta responsabilità, e garantire...

AI Responsabile: Oltre il Buzzword

La dottoressa Anna Zeiter sottolinea che "l'IA responsabile non è solo un termine di moda, ma un imperativo fondamentale" per garantire la fiducia e la responsabilità nell'uso delle tecnologie...

Integrare l’IA rispettando la compliance

L'adozione dell'IA nelle aziende e nella produzione sta fallendo almeno due volte più spesso di quanto non abbia successo. Il Cloud Security Alliance (CSA) afferma che il problema reale è che le...

La preservazione dei dati nell’era dell’IA generativa

Gli strumenti di intelligenza artificiale generativa (GAI) sollevano preoccupazioni legali come la privacy dei dati e la sicurezza. È fondamentale che le organizzazioni stabiliscano politiche di...

Intelligenza Artificiale Responsabile: Principi e Vantaggi

Oggi, l'IA sta cambiando il nostro modo di vivere e lavorare, quindi è molto importante utilizzarla nel modo giusto. L'IA responsabile significa creare e utilizzare IA che sia equa, chiara e...

Intelligenza Artificiale: Costruire Fiducia e Governance per il Successo Aziendale

Negli ultimi venti anni, l'intelligenza artificiale (AI) è diventata fondamentale per prendere decisioni aziendali e affrontare sfide complesse. È essenziale costruire fiducia nell'AI attraverso...

Regolamentazione dell’IA in Spagna: Innovazioni e Sfide

La Spagna è all'avanguardia nella governance dell'IA con il primo regolatore europeo per l'IA (AESIA) e una legge nazionale sull'IA in fase di sviluppo. Questa legge mira a implementare e integrare il...

Regolamentare l’IA: sfide e opportunità globali

L'intelligenza artificiale (AI) ha fatto enormi progressi negli ultimi anni, diventando sempre più presente nella consapevolezza pubblica. I governi e gli organismi di regolamentazione in tutto il...

AI e scommesse: opportunità e responsabilità nel futuro del gioco

L'implementazione dell'Intelligenza Artificiale (IA) nel settore del gioco d'azzardo offre opportunità significative, ma comporta anche crescenti aspettative normative e rischi di responsabilità. È...