Battaglia per la Trasparenza: L’AI Act e i Diritti dei Creatori

OpenAI e Altre Aziende Tecnologiche Combattono l’Obbligo di Trasparenza nella Legge AI Europea mentre i Creativi Ribattono: ‘Sappiamo che ci state sfruttando’

Il 28 febbraio 2025, l’Unione Europea ha approvato una legge sull’intelligenza artificiale (AI Act) che è stata definita come un punto di svolta. Questa legge è stata la prima al mondo a regolamentare la tecnologia dell’intelligenza artificiale e richiede specificamente che le aziende informino il pubblico quando un contenuto è generato da AI.

Tuttavia, uno degli aspetti più divisivi della legge riguarda la trasparenza nella fase cruciale iniziale, richiedendo alle aziende di notificare i titolari dei diritti quando le loro opere vengono utilizzate come dati di addestramento per gli algoritmi dei sistemi di AI generativa. Questo obbligo di notifica, la cui attuazione è ancora in fase di definizione, è fondamentale per i titolari dei diritti che cercano compensi e nuove fonti di guadagno.

Le Reazioni delle Aziende AI

Aziende come OpenAI, Meta e MistralAI hanno unanimemente criticato l’AI Act per aver creato un ambiente difficile e per aver rallentato l’innovazione. Sam Altman, CEO di OpenAI, ha scritto un editoriale su un importante quotidiano francese per sottolineare che i regolatori europei devono considerare le conseguenze delle loro decisioni sulle opportunità future.

In passato, le aziende tecnologiche hanno già avuto conflitti con i regolatori dell’UE. Nel 2018, l’UE è stata criticata per aver imposto la GDPR, una delle leggi più severe sulla privacy e la sicurezza. Questa legge è diventata un modello per altre legislazioni, inclusa quella degli Stati Uniti.

Le Sfide Legali

Recentemente, OpenAI è stata portata in tribunale da un gruppo di testate giornalistiche per violazione del copyright. In Francia, il gruppo editoriale LVMH ha minacciato azioni legali contro OpenAI dopo il fallimento di raggiungere un accordo per l’utilizzo dei propri contenuti.

Secondo esperti, le aziende AI hanno potuto “ingurgitare milioni di opere” scaricando contenuti da internet, spesso senza compensare i titolari dei diritti. Questo è stato giustificato come “estrazione di dati” in Europa e “fair use” negli Stati Uniti.

Le Preoccupazioni dei Titolari dei Diritti

I titolari dei diritti, tra cui le organizzazioni giornalistiche, hanno iniziato a escludere le proprie opere per prevenire l’accesso delle aziende AI. Louette, un rappresentante dell’industria, ha affermato che i giornalisti sono stati sfruttati e ora chiedono compensi per l’uso passato, presente e futuro delle loro opere.

La Necessità di Regolamentazione

Il dibattito sulla regolamentazione è acceso. Alcuni esperti affermano che ogni innovazione tecnologica ha bisogno di un quadro normativo protettivo per prosperare. Ayouch, un cineasta, ha chiesto una trasparenza totale riguardo ai contenuti utilizzati per l’addestramento delle AI.

Le aziende AI stanno combattendo per evitare di dover comunicare dettagli granulari sui dati di addestramento. Tuttavia, l’UE ha dichiarato che le aziende saranno multate per eventuali violazioni, con sanzioni che potrebbero ammontare a miliardi di euro.

Conclusioni

Il panorama dell’innovazione tecnologica sta cambiando rapidamente e le aziende devono adattarsi a nuove normative. La questione della trasparenza e della compensazione per l’uso dei contenuti è fondamentale per garantire un equilibrio tra innovazione e protezione dei diritti d’autore. I creativi e i titolari dei diritti stanno lottando per essere ascoltati in un contesto in cui il rischio di sfruttamento è reale e crescente.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...