Il nodo del copyright nell’era dell’IA in Europa

Il Legame Tra Copyright e Intelligenza Artificiale nell’Unione Europea

Il recente aggiornamento delle normative sul copyright nell’ambito del Codice di Pratica dell’AI Act dell’Unione Europea ha creato nuove sfide, pur mantenendo il momento di crescita dell’AI. Il 10 settembre 2025, l’Unione Europea ha pubblicato linee guida implementative riguardanti l’uso dei dati per l’addestramento dei modelli di intelligenza artificiale, delineando chiaramente le responsabilità dei fornitori di modelli di AI di uso generale.

Le Linee Guida del Codice di Pratica

Il Codice di Pratica affronta tre questioni chiave: la trasparenza nella costruzione dei modelli AI, la gestione della sicurezza e della sicurezza dei modelli, e la conformità con i requisiti di copyright riguardanti i dati di addestramento. Mentre le prime due questioni sono relativamente facili da gestire, il copyright rappresenta una sfida più complessa.

Con l’aumento delle dimensioni dei modelli AI, una maggiore quantità di dati di addestramento migliora le loro performance. Tuttavia, le obbligazioni di copyright limitano la disponibilità di dati e aumentano i costi associati all’addestramento dei modelli. Le condizioni di accesso ai dati incidono anche sulla competitività globale dell’UE nel settore dell’AI.

Problemi di Trasparenza e Costi di Transazione

Il Codice di Pratica propone la trasparenza come strumento per facilitare il licensing dei dati protetti da copyright. Tuttavia, le elevate spese di transazione e le commissioni di licensing possono superare il valore stesso delle licenze per molti piccoli editori online. Inoltre, il modello di licensing utilizzato nella pubblicità online non è facilmente applicabile all’AI.

Un approccio alternativo proposto dal Codice di Pratica richiede solo un elenco riassuntivo dei domini online più rilevanti da cui sono stati estratti i dati, escludendo così i piccoli editori. Questo potrebbe portare a set di dati di addestramento distorti, penalizzando le comunità linguistiche e culturali più piccole all’interno dell’UE.

Estensione della Definizione di Dati di Addestramento

Il Codice di Pratica definisce i dati di addestramento in modo ampio, includendo dati personali, dati sintetici e dati estratti da altri modelli AI. Questo approccio lascia aperte alcune problematiche relative alla trasparenza e all’uso dei dati. Inoltre, il Codice di Pratica richiede che la conformità con le esclusioni dai dati non influisca negativamente sulla visibilità dei contenuti sui motori di ricerca, creando una disparità tra l’apprendimento umano e quello delle macchine.

Conclusioni sulla Politica e Raccomandazioni

Il recente indebolimento delle normative sul copyright nel Codice di Pratica ha consentito agli sviluppatori di AI di conformarsi più facilmente, ma non ha risolto le sfide fondamentali. L’UE deve affrontare il dibattito sul ruolo dell’AI nel migliorare l’apprendimento e l’innovazione, esplorando come l’AI possa accedere ai dati necessari per alimentare questi processi.

Una soluzione ideale potrebbe ispirarsi alle caratteristiche pro-innovazione della legge sui brevetti, permettendo alla AI di apprendere da tutti i contenuti e dati legalmente accessibili, promuovendo così un regime più favorevole all’innovazione e alla competitività globale.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...