Big Tech e la pressione sulla regolamentazione dell’IA

Le Grandi Tecnologie hanno Diluito il Codice di Pratica sull’IA: un Rapporto

Secondo un rapporto della Corporate Europe Observatory (CEO) e di LobbyControl, le grandi aziende tecnologiche hanno esercitato pressioni sulla Commissione Europea per ridurre il rigore del Codice di Pratica sull’IA Generale. Questo codice dovrebbe aiutare i fornitori di modelli di intelligenza artificiale a conformarsi alla legge europea sull’IA.

Accesso Privilegiato delle Aziende Tecnologiche

Il rapporto indica che le aziende tecnologiche hanno goduto di vantaggi strutturali nel processo di redazione del Codice, indebolendo le norme relative all’IA avanzata. Tredici esperti nominati dalla Commissione Europea sono stati incaricati di redigere il Codice a partire dallo scorso settembre, utilizzando sessioni plenarie e workshop per consentire a circa 1.000 partecipanti di condividere feedback.

È emerso che i fornitori di modelli, ovvero le aziende che sviluppano i grandi modelli di IA che il Codice intende regolamentare, sono stati invitati a workshop dedicati con i presidenti dei gruppi di lavoro. Tra le aziende partecipanti figurano nomi noti come Google, Microsoft, Meta, Amazon e OpenAI.

Accesso Limitato per Altri Stakeholder

Al contrario, altre parti interessate, come le organizzazioni della società civile, gli editori e le PMI, hanno avuto un accesso limitato. La loro partecipazione nei workshop si è principalmente limitata a un sistema di votazione emoji per domande e commenti attraverso la piattaforma online SLIDO.

Critiche al Processo di Redazione

Il processo di redazione è stato criticizzato, in particolare da parte di diritti d’autore e editori che temono che le norme possano contraddire la legge sul copyright. Una portavoce della Commissione ha confermato che è stata ricevuta una lettera dall’Amministrazione statunitense che si oppone al Codice, sollevando preoccupazioni per l’innovazione.

Il Ritardo nella Pubblicazione del Codice

Secondo le aspettative, la versione finale del Codice doveva essere pubblicata all’inizio di maggio, ma è probabile che subisca un ritardo. La Commissione non ha commentato se la scadenza del 2 maggio sarà rispettata. Tuttavia, sia le linee guida sull’IA generale che il Codice finale sono attesi per maggio o giugno 2025.

In un’email inviata agli stakeholder, la Commissione ha indicato che il testo finale dovrebbe essere pubblicato prima di agosto 2025, quando entreranno in vigore le norme sugli strumenti di IA generale. Il Codice, che sarà pienamente applicabile nel 2027, potrebbe essere formalizzato tramite un atto di esecuzione.

È emerso che l’ossessione della Commissione per la semplificazione e la competitività sta aprendo la strada a una lobby aggressiva da parte delle grandi aziende tecnologiche.

Questo articolo è stato aggiornato per includere un commento dalla Commissione Europea.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...