Trasparenza dell’IA: un valore da non compromettere

Smantellare la trasparenza dell’IA in nome della deregolamentazione non aiuterà l’Europa

C’è stato un cambiamento di clima a Bruxelles. Sono finiti i giorni in cui l’UE si poneva come il regolatore digitale globale che frena i Big Tech.

Nel tentativo di scrollarsi di dosso la reputazione di ritardataria tecnologica e di adattarsi a nuove realtà geopolitiche, l’UE sta ora virando verso la semplificazione normativa.

Tuttavia, in fretta di semplificare le regole per le aziende locali, l’UE rischia di compromettere principi ben consolidati.

La semplificazione non dovrebbe essere una scusa per la deregolamentazione.

Confondere trasparenza e apertura con un ostacolo, e non con un motore dell’innovazione, sarebbe un autogol. Le nuove regole sulla trasparenza per l’IA e i dati sotto il Regolamento sull’IA dell’UE potrebbero diventare una delle prime vittime di questo nuovo impulso a ritirare alcuni dei requisiti recentemente adottati per i fornitori di modelli di IA a uso generale (GPAI).

Sotto il Regolamento sull’IA dell’UE, gli sviluppatori di modelli GPAI — cioè, modelli di IA molto grandi come GPT di OpenAI o Gemini di Google — dovranno presto presentare un riassunto pubblico “sufficientemente dettagliato” dei dati utilizzati per addestrare i modelli.

Questo riassunto potrebbe essere un modo leggero per avanzare drasticamente la trasparenza riguardo all’uso di uno degli input più preziosi dell’IA, i dati, a costo praticamente nullo per gli sviluppatori.

Tuttavia, se l’Ufficio dell’IA dell’UE cede alla pressione dell’industria per attenuare il livello di dettaglio, questo riassunto si trasformerà in un esercizio formale che offrirà poco valore a chiunque. Ciò sarebbe miope e sbagliato.

Chi ha paura della trasparenza?

Da una prospettiva dei diritti fondamentali, la trasparenza non può essere trattata come un “aggiunta” opzionale o un “nice to have”.

La trasparenza consente l’esercizio dei diritti, aiuta a tenere le aziende tecnologiche responsabili, informa il dibattito pubblico e consente il monitoraggio di questa tecnologia emergente senza interferire con il suo sviluppo.

In breve, non possiamo sperare di governare l’IA senza una migliore trasparenza.

Anche economicamente, la paura della trasparenza è mal concepita. Standard di trasparenza robusti non sono barriere all’innovazione tecnologica socialmente benefica.

Al contrario, promuovono la diffusione dell’innovazione e stimolano la concorrenza in modo più affidabile e sostenibile. Il successo del software open-source — che oggi serve da base per la tecnologia ovunque — dimostra che l’apertura, e non il segreto, favorisce il progresso tecnologico e la leadership.

Un approccio basato sul segreto, d’altra parte, favorisce i soggetti già presenti sul mercato, mantiene la conoscenza e i progressi scientifici isolati e rallenta il progresso tecnologico.

È molto più probabile che la vera motivazione qui sia evitare il scrutinio pubblico e la potenziale responsabilità legale per violazioni del copyright o della protezione dei dati, e utilizzare i propri dati per costruire una fortezza competitiva.

Nell’IA, come in altre industrie digitali, il vantaggio competitivo a lungo termine deriva dall’innovazione, non dal segreto. L’UE non dovrebbe abbandonare il proprio impegno per la trasparenza sull’errata assunzione che competitività e trasparenza siano mutuamente esclusive.

Quando si tratta di trasparenza riguardo ai dati utilizzati per addestrare modelli di IA all’avanguardia, gli sviluppatori di IA e le loro associazioni industriali sono vocalmente contrari — facendo affermazioni generali di segretezza commerciale, esprimendo riserve non specificate riguardo a presunti vulnerabilità di sicurezza, e citando oneri di conformità eccessivi.

Tuttavia, è molto più probabile che la vera motivazione qui sia evitare il scrutinio pubblico e la potenziale responsabilità legale per violazioni del copyright o della protezione dei dati, e utilizzare i propri dati per costruire una fortificazione competitiva.

Ironia della sorte, la protezione dei dati personali e dei diritti d’autore sono tra gli interessi che hanno portato i legislatori dell’UE a includere gli obblighi di trasparenza nel Regolamento sull’IA in primo luogo.

La critica alla trasparenza è profondamente errata

Gli sviluppatori di IA hanno fornito poca chiarezza su quali informazioni specifiche dovrebbero essere protette come segreto commerciale, nonostante i criteri ben definiti delineati nella legge europea sui segreti commerciali. Ci sono argomentazioni ragionevoli per cui gran parte delle informazioni che abbiamo sostenuto dovrebbero essere incluse nel modello non soddisfa questi criteri.

Inoltre, basare una strategia per rafforzare la competitività delle aziende di IA dell’UE sui segreti commerciali riguardanti i dati di addestramento è mal indirizzato.

Fare affidamento sui segreti commerciali per isolare le informazioni sui dati di addestramento potrebbe anche scoraggiare gli sviluppatori di IA dall’utilizzare set di dati diversificati e di alta qualità, risultando in applicazioni di IA distorte, meno affidabili o addirittura dannose. Questo è esattamente l’opposto di ciò di cui ha bisogno l’economia dell’UE.

Gli argomenti di sicurezza contro la trasparenza in questo contesto sono stati anche privi di specificità. Potrebbero esserci circostanze speciali in cui divulgare determinate informazioni potrebbe introdurre rischi; questo dovrebbe essere preso sul serio. Ma senza alcuna spiegazione su quali informazioni, se divulgate pubblicamente, introdurrebbero quale vulnerabilità, è difficile farlo.

Per quanto riguarda i costi di conformità prospettici per fornire una documentazione chiara e significativa sui dati di addestramento, quasi tutte le informazioni richieste sono facilmente prodotte o già disponibili per gli sviluppatori che seguono pratiche di documentazione standard internamente.

In definitiva, l’attuale spinta dell’UE per una regolamentazione semplificata non può essere un modo per minare lo spirito di ciò che è stato concordato dai co-legislatori in un processo democratico.

Il desiderio di semplificare le regole per le imprese non può venire a scapito dei valori fondamentali dell’UE, che includono sia la trasparenza che l’innovazione tecnologica (socialmente benefica e ambientalmente sostenibile).

Invece di consentire a interessi industriali selezionati — in particolare le grandi aziende tecnologiche — di diluire la trasparenza, l’UE dovrebbe trattarla come uno strumento per promuovere un mercato digitale aperto e competitivo che funzioni per le aziende private e per l’interesse pubblico.

Non c’è bisogno di scambiare trasparenza per competitività. Se mai, il vero rischio è che, nella sua fretta di semplificare, l’UE finisca per ridurre le regole per coloro che sono già avanti nel gioco.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...