Cos’è la trasparenza? – Etica dell’IA
La trasparenza può essere definita in molteplici modi. Ci sono diversi concetti vicini che vengono talvolta utilizzati come sinonimi di trasparenza, tra cui “spiegabilità” (la ricerca sull’IA in questo settore è nota come “XAI”), “interpretabilità”, “comprensibilità” e “scatola nera”.
La trasparenza è, in linea di massima, una proprietà di un’applicazione. Riguarda quanto è possibile comprendere il funzionamento interno di un sistema “in teoria”. Può anche significare il modo di fornire spiegazioni dei modelli e delle decisioni algoritmiche che siano comprensibili per l’utente. Questo si occupa della percezione pubblica e della comprensione di come funziona l’IA. Inoltre, la trasparenza può essere vista come un ideale socio-tecnico e normativo di “apertura”.
Ci sono molte domande aperte riguardo a ciò che costituisce la trasparenza o spiegabilità e quale livello di trasparenza sia sufficiente per i diversi portatori di interesse. A seconda della situazione specifica, il significato preciso di “trasparenza” può variare. È una questione scientifica aperta se ci siano diversi tipi di trasparenza. Inoltre, la trasparenza può riferirsi a cose diverse, sia che si tratti di analizzare il significato legale di bias ingiusti o di discuterne in termini di caratteristiche dei sistemi di apprendimento automatico.
Trasparenza come proprietà di un sistema
Come proprietà di un sistema, la trasparenza si occupa di come funziona o opera internamente un modello. La trasparenza è ulteriormente suddivisa in “simulabilità” (comprensione del funzionamento del modello), “decomponibilità” (comprensione dei componenti individuali) e trasparenza algoritmica (visibilità degli algoritmi).
Cosa rende un sistema una “scatola nera”?
Complesso. Nei sistemi IA contemporanei, il funzionamento di una rete neurale è codificato in migliaia, o addirittura milioni, di coefficienti numerici. Tipicamente, il sistema impara i loro valori nella fase di addestramento. Poiché il funzionamento della rete neurale dipende dalle interazioni complicate tra questi valori, è praticamente impossibile capire come funziona la rete, anche se tutti i parametri sono conosciuti.
Difficoltà nello sviluppo di soluzioni spiegabili. Anche se i modelli di IA utilizzati supportano un certo livello di spiegabilità, è necessario un ulteriore sviluppo per costruire la spiegabilità del sistema. Può essere difficile creare un’esperienza utente per spiegazioni attente ma facilmente comprensibili per gli utenti.
Preoccupazioni relative al rischio. Molti algoritmi IA possono essere ingannati se un attaccante progetta attentamente un input che causa il malfunzionamento del sistema. In un sistema altamente trasparente, potrebbe essere più facile manipolare il sistema per ottenere risultati strani o indesiderati. Pertanto, a volte i sistemi sono intenzionalmente progettati come scatole nere.
Poiché molti dei modelli di deep learning più efficienti e attuali sono modelli a scatola nera (quasi per definizione), i ricercatori sembrano assumere che sia altamente improbabile che saremo in grado di svilupparli come completamente trasparenti. A causa di ciò, la discussione si concentra sul trovare il “livello sufficiente di trasparenza”. Sarebbe sufficiente se gli algoritmi offrissero alle persone una divulgazione di come gli algoritmi sono giunti alla loro decisione e fornire il più piccolo cambiamento “che può essere fatto per ottenere un risultato desiderabile”? Ad esempio, se un algoritmo rifiuta a qualcuno un beneficio sociale, dovrebbe informare la persona del motivo e anche cosa può fare per annullare la decisione.
La spiegazione dovrebbe indicare, ad esempio, qual è l’importo massimo di stipendio da approvare (input) e come diminuire l’importo influenzerà le decisioni prese (manipolazione dell’input). Ma il problema è che il diritto di sapere si applica anche a situazioni in cui il sistema commette errori. In questo caso, potrebbe essere necessario eseguire un’autopsia sull’algoritmo e identificare i fattori che hanno causato al sistema di fare errori. Questo non può essere fatto solo manipolando gli input e gli output.
Trasparenza come comprensibilità
La comprensibilità – o comprensione – di un algoritmo richiede che si spieghi come è stata presa una decisione da un modello IA in modo sufficientemente comprensibile per coloro che ne sono colpiti. Si dovrebbe avere una chiara comprensione di come o perché è stata presa una particolare decisione basata sugli input.
Tuttavia, è notoriamente difficile tradurre concetti derivati algoritmicamente in concetti comprensibili per gli esseri umani. In alcuni paesi, i legislatori hanno discusso se le autorità pubbliche dovrebbero pubblicare gli algoritmi che utilizzano nel processo decisionale automatizzato in termini di codici di programmazione. Tuttavia, la maggior parte delle persone non sa come dare senso ai codici di programmazione. È quindi difficile vedere come la trasparenza venga aumentata pubblicando i codici.
Oggigiorno, scienziati cognitivi e informatici sviluppano descrizioni umane interpretabili di come si comportano le applicazioni e perché. Gli approcci includono, ad esempio, lo sviluppo di strumenti di visualizzazione dei dati, interfacce interattive, spiegazioni verbali o descrizioni a livello meta delle caratteristiche dei modelli. Questi strumenti possono essere estremamente utili per rendere le applicazioni IA più accessibili. Tuttavia, c’è ancora molto lavoro da fare.
Il fatto che la comprensibilità si basi su componenti soggettivi e culturali complica ulteriormente la questione. Ad esempio, la logica con cui vengono interpretate le visualizzazioni – o come vengono fatte le inferenze su di esse – varia tra le culture. Pertanto, gli sviluppatori tecnologici dovrebbero prestare attenzione alla sufficiente comprensione del linguaggio visivo che utilizzano.
Inoltre, molto dipende dal grado di alfabetizzazione sui dati o algoritmi, ad esempio, la conoscenza delle tecnologie contemporanee. In alcune culture, il vocabolario della tecnologia contemporanea è più familiare, ma in molte altre potrebbe essere completamente nuovo. Per aumentare la comprensibilità, è chiaramente necessario un significativo sforzo educativo per migliorare l’alfabetizzazione algoritmica – ad esempio sul “pensiero computazionale”. Questa alfabetizzazione degli utenti avrà un effetto diretto sulla trasparenza in termini di comprensione di base dei sistemi IA da parte degli utenti ordinari. Potrebbe effettivamente fornire il modo più efficiente e pratico per rendere le scatole meno nere per molte persone.
Come rendere i modelli più trasparenti?
Il problema della scatola nera dell’intelligenza artificiale non è nuovo. Fornire trasparenza per i modelli di apprendimento automatico è un’area di ricerca attiva. In linea di massima, ci sono cinque approcci principali:
- Usare modelli più semplici. Questo, tuttavia, spesso sacrifica l’accuratezza per la spiegabilità.
- Combinare modelli più semplici e più sofisticati. Mentre il modello sofisticato consente al sistema di eseguire calcoli più complessi, il modello più semplice può essere utilizzato per fornire trasparenza.
- Modificare gli input per tracciare le dipendenze rilevanti tra input e output. Se una manipolazione degli input cambia i risultati complessivi del modello, questi input possono giocare un ruolo nella classificazione.
- Progettare i modelli per l’utente. Ciò richiede l’uso di metodi e strumenti cognitivamente e psicologicamente efficienti per visualizzare gli stati del modello o dirigere l’attenzione. Ad esempio, nella visione artificiale, gli stati nei livelli intermedi dei modelli possono essere visualizzati come caratteristiche (come teste, braccia e gambe) per fornire una descrizione comprensibile per la classificazione delle immagini.
- Seguire le ultime ricerche. Molte ricerche sono in corso su vari aspetti dell’IA spiegabile – comprese le dimensioni socio-cognitive – e nuove tecniche vengono sviluppate.