Big Tech e la pressione sulla regolamentazione dell’IA

Le Grandi Tecnologie hanno Diluito il Codice di Pratica sull’IA: un Rapporto

Secondo un rapporto della Corporate Europe Observatory (CEO) e di LobbyControl, le grandi aziende tecnologiche hanno esercitato pressioni sulla Commissione Europea per ridurre il rigore del Codice di Pratica sull’IA Generale. Questo codice dovrebbe aiutare i fornitori di modelli di intelligenza artificiale a conformarsi alla legge europea sull’IA.

Accesso Privilegiato delle Aziende Tecnologiche

Il rapporto indica che le aziende tecnologiche hanno goduto di vantaggi strutturali nel processo di redazione del Codice, indebolendo le norme relative all’IA avanzata. Tredici esperti nominati dalla Commissione Europea sono stati incaricati di redigere il Codice a partire dallo scorso settembre, utilizzando sessioni plenarie e workshop per consentire a circa 1.000 partecipanti di condividere feedback.

È emerso che i fornitori di modelli, ovvero le aziende che sviluppano i grandi modelli di IA che il Codice intende regolamentare, sono stati invitati a workshop dedicati con i presidenti dei gruppi di lavoro. Tra le aziende partecipanti figurano nomi noti come Google, Microsoft, Meta, Amazon e OpenAI.

Accesso Limitato per Altri Stakeholder

Al contrario, altre parti interessate, come le organizzazioni della società civile, gli editori e le PMI, hanno avuto un accesso limitato. La loro partecipazione nei workshop si è principalmente limitata a un sistema di votazione emoji per domande e commenti attraverso la piattaforma online SLIDO.

Critiche al Processo di Redazione

Il processo di redazione è stato criticizzato, in particolare da parte di diritti d’autore e editori che temono che le norme possano contraddire la legge sul copyright. Una portavoce della Commissione ha confermato che è stata ricevuta una lettera dall’Amministrazione statunitense che si oppone al Codice, sollevando preoccupazioni per l’innovazione.

Il Ritardo nella Pubblicazione del Codice

Secondo le aspettative, la versione finale del Codice doveva essere pubblicata all’inizio di maggio, ma è probabile che subisca un ritardo. La Commissione non ha commentato se la scadenza del 2 maggio sarà rispettata. Tuttavia, sia le linee guida sull’IA generale che il Codice finale sono attesi per maggio o giugno 2025.

In un’email inviata agli stakeholder, la Commissione ha indicato che il testo finale dovrebbe essere pubblicato prima di agosto 2025, quando entreranno in vigore le norme sugli strumenti di IA generale. Il Codice, che sarà pienamente applicabile nel 2027, potrebbe essere formalizzato tramite un atto di esecuzione.

È emerso che l’ossessione della Commissione per la semplificazione e la competitività sta aprendo la strada a una lobby aggressiva da parte delle grandi aziende tecnologiche.

Questo articolo è stato aggiornato per includere un commento dalla Commissione Europea.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...