Smantellare la trasparenza dell’IA in nome della deregolamentazione non aiuterà l’Europa
C’è stato un cambiamento di clima a Bruxelles. Sono finiti i giorni in cui l’UE si poneva come il regolatore digitale globale che frena i Big Tech.
Nel tentativo di scrollarsi di dosso la reputazione di ritardataria tecnologica e di adattarsi a nuove realtà geopolitiche, l’UE sta ora virando verso la semplificazione normativa.
Tuttavia, in fretta di semplificare le regole per le aziende locali, l’UE rischia di compromettere principi ben consolidati.
La semplificazione non dovrebbe essere una scusa per la deregolamentazione.
Confondere trasparenza e apertura con un ostacolo, e non con un motore dell’innovazione, sarebbe un autogol. Le nuove regole sulla trasparenza per l’IA e i dati sotto il Regolamento sull’IA dell’UE potrebbero diventare una delle prime vittime di questo nuovo impulso a ritirare alcuni dei requisiti recentemente adottati per i fornitori di modelli di IA a uso generale (GPAI).
Sotto il Regolamento sull’IA dell’UE, gli sviluppatori di modelli GPAI — cioè, modelli di IA molto grandi come GPT di OpenAI o Gemini di Google — dovranno presto presentare un riassunto pubblico “sufficientemente dettagliato” dei dati utilizzati per addestrare i modelli.
Questo riassunto potrebbe essere un modo leggero per avanzare drasticamente la trasparenza riguardo all’uso di uno degli input più preziosi dell’IA, i dati, a costo praticamente nullo per gli sviluppatori.
Tuttavia, se l’Ufficio dell’IA dell’UE cede alla pressione dell’industria per attenuare il livello di dettaglio, questo riassunto si trasformerà in un esercizio formale che offrirà poco valore a chiunque. Ciò sarebbe miope e sbagliato.
Chi ha paura della trasparenza?
Da una prospettiva dei diritti fondamentali, la trasparenza non può essere trattata come un “aggiunta” opzionale o un “nice to have”.
La trasparenza consente l’esercizio dei diritti, aiuta a tenere le aziende tecnologiche responsabili, informa il dibattito pubblico e consente il monitoraggio di questa tecnologia emergente senza interferire con il suo sviluppo.
In breve, non possiamo sperare di governare l’IA senza una migliore trasparenza.
Anche economicamente, la paura della trasparenza è mal concepita. Standard di trasparenza robusti non sono barriere all’innovazione tecnologica socialmente benefica.
Al contrario, promuovono la diffusione dell’innovazione e stimolano la concorrenza in modo più affidabile e sostenibile. Il successo del software open-source — che oggi serve da base per la tecnologia ovunque — dimostra che l’apertura, e non il segreto, favorisce il progresso tecnologico e la leadership.
Un approccio basato sul segreto, d’altra parte, favorisce i soggetti già presenti sul mercato, mantiene la conoscenza e i progressi scientifici isolati e rallenta il progresso tecnologico.
È molto più probabile che la vera motivazione qui sia evitare il scrutinio pubblico e la potenziale responsabilità legale per violazioni del copyright o della protezione dei dati, e utilizzare i propri dati per costruire una fortezza competitiva.
Nell’IA, come in altre industrie digitali, il vantaggio competitivo a lungo termine deriva dall’innovazione, non dal segreto. L’UE non dovrebbe abbandonare il proprio impegno per la trasparenza sull’errata assunzione che competitività e trasparenza siano mutuamente esclusive.
Quando si tratta di trasparenza riguardo ai dati utilizzati per addestrare modelli di IA all’avanguardia, gli sviluppatori di IA e le loro associazioni industriali sono vocalmente contrari — facendo affermazioni generali di segretezza commerciale, esprimendo riserve non specificate riguardo a presunti vulnerabilità di sicurezza, e citando oneri di conformità eccessivi.
Tuttavia, è molto più probabile che la vera motivazione qui sia evitare il scrutinio pubblico e la potenziale responsabilità legale per violazioni del copyright o della protezione dei dati, e utilizzare i propri dati per costruire una fortificazione competitiva.
Ironia della sorte, la protezione dei dati personali e dei diritti d’autore sono tra gli interessi che hanno portato i legislatori dell’UE a includere gli obblighi di trasparenza nel Regolamento sull’IA in primo luogo.
La critica alla trasparenza è profondamente errata
Gli sviluppatori di IA hanno fornito poca chiarezza su quali informazioni specifiche dovrebbero essere protette come segreto commerciale, nonostante i criteri ben definiti delineati nella legge europea sui segreti commerciali. Ci sono argomentazioni ragionevoli per cui gran parte delle informazioni che abbiamo sostenuto dovrebbero essere incluse nel modello non soddisfa questi criteri.
Inoltre, basare una strategia per rafforzare la competitività delle aziende di IA dell’UE sui segreti commerciali riguardanti i dati di addestramento è mal indirizzato.
Fare affidamento sui segreti commerciali per isolare le informazioni sui dati di addestramento potrebbe anche scoraggiare gli sviluppatori di IA dall’utilizzare set di dati diversificati e di alta qualità, risultando in applicazioni di IA distorte, meno affidabili o addirittura dannose. Questo è esattamente l’opposto di ciò di cui ha bisogno l’economia dell’UE.
Gli argomenti di sicurezza contro la trasparenza in questo contesto sono stati anche privi di specificità. Potrebbero esserci circostanze speciali in cui divulgare determinate informazioni potrebbe introdurre rischi; questo dovrebbe essere preso sul serio. Ma senza alcuna spiegazione su quali informazioni, se divulgate pubblicamente, introdurrebbero quale vulnerabilità, è difficile farlo.
Per quanto riguarda i costi di conformità prospettici per fornire una documentazione chiara e significativa sui dati di addestramento, quasi tutte le informazioni richieste sono facilmente prodotte o già disponibili per gli sviluppatori che seguono pratiche di documentazione standard internamente.
In definitiva, l’attuale spinta dell’UE per una regolamentazione semplificata non può essere un modo per minare lo spirito di ciò che è stato concordato dai co-legislatori in un processo democratico.
Il desiderio di semplificare le regole per le imprese non può venire a scapito dei valori fondamentali dell’UE, che includono sia la trasparenza che l’innovazione tecnologica (socialmente benefica e ambientalmente sostenibile).
Invece di consentire a interessi industriali selezionati — in particolare le grandi aziende tecnologiche — di diluire la trasparenza, l’UE dovrebbe trattarla come uno strumento per promuovere un mercato digitale aperto e competitivo che funzioni per le aziende private e per l’interesse pubblico.
Non c’è bisogno di scambiare trasparenza per competitività. Se mai, il vero rischio è che, nella sua fretta di semplificare, l’UE finisca per ridurre le regole per coloro che sono già avanti nel gioco.