Cautela sull’AI Act: il rischio di una corsa affrettata

Il bulldog di Bruxelles della Big Tech sollecita cautela sull’AI Act

La Computer & Communications Industry Association (CCIA Europe) ha avvertito i leader dell’UE del rischio di implementare l’AI Act senza un quadro finalizzato.

In una dichiarazione pubblicata sul sito web della CCIA, l’associazione ha espresso le proprie preoccupazioni riguardo a disposizioni chiave dell’AI Act dell’UE, comprese regole cruciali per i modelli di intelligenza artificiale di uso generale (GPAI), che ancora mancano di linee guida essenziali.

Scadenze e requisiti

Le regole, che dovrebbero essere implementate il 2 agosto, richiedono ai fornitori di modelli GPAI di lavorare su documentazione tecnica, politiche di copyright e trasparenza dei dataset entro agosto 2026. Se i modelli vengono considerati a rischio sistemico, sarà necessaria la presentazione di rapporti di red-team e registri degli incidenti.

Preoccupazioni e incertezze

Ci sono motivi di preoccupazione. Il GPAI Code of Practice, promesso per il 2 maggio, rimane in sospeso, mentre la guida ufficiale del Parlamento Europeo riconosce che “diversi capitoli… hanno altre date di applicazione”, con la piena efficacia che slitta al 2027.

Diversi leader europei hanno espresso i loro dubbi riguardo all’Atto, con il primo ministro svedese, Ulf Kristersson, che ha definito la tempistica “confusa” e ha chiesto una pausa all’inizio di questa settimana.

Rischi di un’implementazione affrettata

Una rapida attuazione dell’Atto, avverte la CCIA, rischia di compromettere le aspirazioni dell’Unione Europea in materia di intelligenza artificiale, incluso il previsto incremento di 3,4 trilioni di euro nell’economia dell’UE grazie all’IA entro il 2030.

L’UE è già in ritardo su questa missione, con le aziende europee che ottengono solo il sei percento del finanziamento globale per l’IA, rispetto al 61 percento che va ai concorrenti americani.

Produzione di modelli di IA

Nel frattempo, come riportato da Stanford HAI, le istituzioni basate negli Stati Uniti hanno prodotto 40 modelli di IA notevoli nel 2024, rispetto a soli tre in Europa.

Richieste di pause e semplificazioni

Il vicepresidente senior della CCIA Europe e capo ufficio, Daniel Friedlaender, ha commentato: “L’Europa non può guidare sull’IA con un piede sul freno. Con parti critiche dell’AI Act ancora mancanti a poche settimane dall’entrata in vigore delle regole, abbiamo bisogno di una pausa per fare le cose nel modo giusto, o rischiamo di fermare completamente l’innovazione.”

Il manager senior delle politiche della CCIA Europe, Boniface de Champris, ha aggiunto: “Se l’UE è seria nel voler trasformare la sua promessa di 3,4 trilioni di euro in realtà, deve agire ora. Riflettendo le crescenti preoccupazioni tra i governi e gli innovatori dell’IA, la Commissione dovrebbe essere incaricata di fermarsi e semplificare, dando alle aziende una possibilità equa di conformarsi e competere.”

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...