Trasparenza dell’IA: un valore da non compromettere

Smantellare la trasparenza dell’IA in nome della deregolamentazione non aiuterà l’Europa

C’è stato un cambiamento di clima a Bruxelles. Sono finiti i giorni in cui l’UE si poneva come il regolatore digitale globale che frena i Big Tech.

Nel tentativo di scrollarsi di dosso la reputazione di ritardataria tecnologica e di adattarsi a nuove realtà geopolitiche, l’UE sta ora virando verso la semplificazione normativa.

Tuttavia, in fretta di semplificare le regole per le aziende locali, l’UE rischia di compromettere principi ben consolidati.

La semplificazione non dovrebbe essere una scusa per la deregolamentazione.

Confondere trasparenza e apertura con un ostacolo, e non con un motore dell’innovazione, sarebbe un autogol. Le nuove regole sulla trasparenza per l’IA e i dati sotto il Regolamento sull’IA dell’UE potrebbero diventare una delle prime vittime di questo nuovo impulso a ritirare alcuni dei requisiti recentemente adottati per i fornitori di modelli di IA a uso generale (GPAI).

Sotto il Regolamento sull’IA dell’UE, gli sviluppatori di modelli GPAI — cioè, modelli di IA molto grandi come GPT di OpenAI o Gemini di Google — dovranno presto presentare un riassunto pubblico “sufficientemente dettagliato” dei dati utilizzati per addestrare i modelli.

Questo riassunto potrebbe essere un modo leggero per avanzare drasticamente la trasparenza riguardo all’uso di uno degli input più preziosi dell’IA, i dati, a costo praticamente nullo per gli sviluppatori.

Tuttavia, se l’Ufficio dell’IA dell’UE cede alla pressione dell’industria per attenuare il livello di dettaglio, questo riassunto si trasformerà in un esercizio formale che offrirà poco valore a chiunque. Ciò sarebbe miope e sbagliato.

Chi ha paura della trasparenza?

Da una prospettiva dei diritti fondamentali, la trasparenza non può essere trattata come un “aggiunta” opzionale o un “nice to have”.

La trasparenza consente l’esercizio dei diritti, aiuta a tenere le aziende tecnologiche responsabili, informa il dibattito pubblico e consente il monitoraggio di questa tecnologia emergente senza interferire con il suo sviluppo.

In breve, non possiamo sperare di governare l’IA senza una migliore trasparenza.

Anche economicamente, la paura della trasparenza è mal concepita. Standard di trasparenza robusti non sono barriere all’innovazione tecnologica socialmente benefica.

Al contrario, promuovono la diffusione dell’innovazione e stimolano la concorrenza in modo più affidabile e sostenibile. Il successo del software open-source — che oggi serve da base per la tecnologia ovunque — dimostra che l’apertura, e non il segreto, favorisce il progresso tecnologico e la leadership.

Un approccio basato sul segreto, d’altra parte, favorisce i soggetti già presenti sul mercato, mantiene la conoscenza e i progressi scientifici isolati e rallenta il progresso tecnologico.

È molto più probabile che la vera motivazione qui sia evitare il scrutinio pubblico e la potenziale responsabilità legale per violazioni del copyright o della protezione dei dati, e utilizzare i propri dati per costruire una fortezza competitiva.

Nell’IA, come in altre industrie digitali, il vantaggio competitivo a lungo termine deriva dall’innovazione, non dal segreto. L’UE non dovrebbe abbandonare il proprio impegno per la trasparenza sull’errata assunzione che competitività e trasparenza siano mutuamente esclusive.

Quando si tratta di trasparenza riguardo ai dati utilizzati per addestrare modelli di IA all’avanguardia, gli sviluppatori di IA e le loro associazioni industriali sono vocalmente contrari — facendo affermazioni generali di segretezza commerciale, esprimendo riserve non specificate riguardo a presunti vulnerabilità di sicurezza, e citando oneri di conformità eccessivi.

Tuttavia, è molto più probabile che la vera motivazione qui sia evitare il scrutinio pubblico e la potenziale responsabilità legale per violazioni del copyright o della protezione dei dati, e utilizzare i propri dati per costruire una fortificazione competitiva.

Ironia della sorte, la protezione dei dati personali e dei diritti d’autore sono tra gli interessi che hanno portato i legislatori dell’UE a includere gli obblighi di trasparenza nel Regolamento sull’IA in primo luogo.

La critica alla trasparenza è profondamente errata

Gli sviluppatori di IA hanno fornito poca chiarezza su quali informazioni specifiche dovrebbero essere protette come segreto commerciale, nonostante i criteri ben definiti delineati nella legge europea sui segreti commerciali. Ci sono argomentazioni ragionevoli per cui gran parte delle informazioni che abbiamo sostenuto dovrebbero essere incluse nel modello non soddisfa questi criteri.

Inoltre, basare una strategia per rafforzare la competitività delle aziende di IA dell’UE sui segreti commerciali riguardanti i dati di addestramento è mal indirizzato.

Fare affidamento sui segreti commerciali per isolare le informazioni sui dati di addestramento potrebbe anche scoraggiare gli sviluppatori di IA dall’utilizzare set di dati diversificati e di alta qualità, risultando in applicazioni di IA distorte, meno affidabili o addirittura dannose. Questo è esattamente l’opposto di ciò di cui ha bisogno l’economia dell’UE.

Gli argomenti di sicurezza contro la trasparenza in questo contesto sono stati anche privi di specificità. Potrebbero esserci circostanze speciali in cui divulgare determinate informazioni potrebbe introdurre rischi; questo dovrebbe essere preso sul serio. Ma senza alcuna spiegazione su quali informazioni, se divulgate pubblicamente, introdurrebbero quale vulnerabilità, è difficile farlo.

Per quanto riguarda i costi di conformità prospettici per fornire una documentazione chiara e significativa sui dati di addestramento, quasi tutte le informazioni richieste sono facilmente prodotte o già disponibili per gli sviluppatori che seguono pratiche di documentazione standard internamente.

In definitiva, l’attuale spinta dell’UE per una regolamentazione semplificata non può essere un modo per minare lo spirito di ciò che è stato concordato dai co-legislatori in un processo democratico.

Il desiderio di semplificare le regole per le imprese non può venire a scapito dei valori fondamentali dell’UE, che includono sia la trasparenza che l’innovazione tecnologica (socialmente benefica e ambientalmente sostenibile).

Invece di consentire a interessi industriali selezionati — in particolare le grandi aziende tecnologiche — di diluire la trasparenza, l’UE dovrebbe trattarla come uno strumento per promuovere un mercato digitale aperto e competitivo che funzioni per le aziende private e per l’interesse pubblico.

Non c’è bisogno di scambiare trasparenza per competitività. Se mai, il vero rischio è che, nella sua fretta di semplificare, l’UE finisca per ridurre le regole per coloro che sono già avanti nel gioco.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...