Big Tech e la pressione sulla regolamentazione dell’IA

Le Grandi Tecnologie hanno Diluito il Codice di Pratica sull’IA: un Rapporto

Secondo un rapporto della Corporate Europe Observatory (CEO) e di LobbyControl, le grandi aziende tecnologiche hanno esercitato pressioni sulla Commissione Europea per ridurre il rigore del Codice di Pratica sull’IA Generale. Questo codice dovrebbe aiutare i fornitori di modelli di intelligenza artificiale a conformarsi alla legge europea sull’IA.

Accesso Privilegiato delle Aziende Tecnologiche

Il rapporto indica che le aziende tecnologiche hanno goduto di vantaggi strutturali nel processo di redazione del Codice, indebolendo le norme relative all’IA avanzata. Tredici esperti nominati dalla Commissione Europea sono stati incaricati di redigere il Codice a partire dallo scorso settembre, utilizzando sessioni plenarie e workshop per consentire a circa 1.000 partecipanti di condividere feedback.

È emerso che i fornitori di modelli, ovvero le aziende che sviluppano i grandi modelli di IA che il Codice intende regolamentare, sono stati invitati a workshop dedicati con i presidenti dei gruppi di lavoro. Tra le aziende partecipanti figurano nomi noti come Google, Microsoft, Meta, Amazon e OpenAI.

Accesso Limitato per Altri Stakeholder

Al contrario, altre parti interessate, come le organizzazioni della società civile, gli editori e le PMI, hanno avuto un accesso limitato. La loro partecipazione nei workshop si è principalmente limitata a un sistema di votazione emoji per domande e commenti attraverso la piattaforma online SLIDO.

Critiche al Processo di Redazione

Il processo di redazione è stato criticizzato, in particolare da parte di diritti d’autore e editori che temono che le norme possano contraddire la legge sul copyright. Una portavoce della Commissione ha confermato che è stata ricevuta una lettera dall’Amministrazione statunitense che si oppone al Codice, sollevando preoccupazioni per l’innovazione.

Il Ritardo nella Pubblicazione del Codice

Secondo le aspettative, la versione finale del Codice doveva essere pubblicata all’inizio di maggio, ma è probabile che subisca un ritardo. La Commissione non ha commentato se la scadenza del 2 maggio sarà rispettata. Tuttavia, sia le linee guida sull’IA generale che il Codice finale sono attesi per maggio o giugno 2025.

In un’email inviata agli stakeholder, la Commissione ha indicato che il testo finale dovrebbe essere pubblicato prima di agosto 2025, quando entreranno in vigore le norme sugli strumenti di IA generale. Il Codice, che sarà pienamente applicabile nel 2027, potrebbe essere formalizzato tramite un atto di esecuzione.

È emerso che l’ossessione della Commissione per la semplificazione e la competitività sta aprendo la strada a una lobby aggressiva da parte delle grandi aziende tecnologiche.

Questo articolo è stato aggiornato per includere un commento dalla Commissione Europea.

More Insights

L’Utah guida la rivoluzione delle politiche sull’IA

Un legislatore dell'Utah è stato recentemente scelto per guidare un gruppo di lavoro nazionale per aiutare a orientare le politiche statali sull'intelligenza artificiale. Il rappresentante statale...

Nuove Regole per l’Intelligenza Artificiale in Texas

Il governatore del Texas ha firmato la legge sul governo responsabile dell'intelligenza artificiale del Texas (TRAIGA) il 22 giugno 2025, rendendo il Texas il secondo stato a introdurre una...

Nuove Regole dell’UE per l’Intelligenza Artificiale: Un Futuro Sicuro

L'Unione Europea ha implementato la propria legge sull'IA, rilasciando linee guida per garantire la conformità e bilanciare l'innovazione dell'IA con la sicurezza. Questa legge introduce categorie di...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Rischi di conformità nell’integrazione dell’intelligenza artificiale

L'intelligenza artificiale sta diventando una parte fondamentale delle funzioni di conformità aziendale, semplificando compiti come le revisioni automatiche dei contratti e il monitoraggio continuo...

Governanza dell’AI: il divario tra adozione e gestione

Secondo una nuova ricerca, il 93% delle aziende nel Regno Unito utilizza l'IA in qualche modo, ma la maggior parte manca di quadri per gestire i rischi. Solo il sette percento ha implementato...

Governanza dei Dati nell’Atto AI dell’UE: Fondamenti e Implicazioni

La legge sull'intelligenza artificiale dell'Unione Europea (EU AI Act) propone un quadro per regolare l'IA, in particolare per i sistemi "ad alto rischio". L'articolo 10 si concentra sui dati e sulla...

Codice di Pratica GPAI: Nuove Regole per l’Intelligenza Artificiale in Europa

La Commissione Europea ha pubblicato un Codice di Pratica volontario per aiutare l'industria a conformarsi agli obblighi della legge sull'IA riguardo alla sicurezza, trasparenza e copyright per i...