Trasparenza nell’Intelligenza Artificiale: Comprendere il Futuro

Cos’è la trasparenza? – Etica dell’IA

La trasparenza può essere definita in molteplici modi. Ci sono diversi concetti vicini che vengono talvolta utilizzati come sinonimi di trasparenza, tra cui “spiegabilità” (la ricerca sull’IA in questo settore è nota come “XAI”), “interpretabilità”, “comprensibilità” e “scatola nera”.

La trasparenza è, in linea di massima, una proprietà di un’applicazione. Riguarda quanto è possibile comprendere il funzionamento interno di un sistema “in teoria”. Può anche significare il modo di fornire spiegazioni dei modelli e delle decisioni algoritmiche che siano comprensibili per l’utente. Questo si occupa della percezione pubblica e della comprensione di come funziona l’IA. Inoltre, la trasparenza può essere vista come un ideale socio-tecnico e normativo di “apertura”.

Ci sono molte domande aperte riguardo a ciò che costituisce la trasparenza o spiegabilità e quale livello di trasparenza sia sufficiente per i diversi portatori di interesse. A seconda della situazione specifica, il significato preciso di “trasparenza” può variare. È una questione scientifica aperta se ci siano diversi tipi di trasparenza. Inoltre, la trasparenza può riferirsi a cose diverse, sia che si tratti di analizzare il significato legale di bias ingiusti o di discuterne in termini di caratteristiche dei sistemi di apprendimento automatico.

Trasparenza come proprietà di un sistema

Come proprietà di un sistema, la trasparenza si occupa di come funziona o opera internamente un modello. La trasparenza è ulteriormente suddivisa in “simulabilità” (comprensione del funzionamento del modello), “decomponibilità” (comprensione dei componenti individuali) e trasparenza algoritmica (visibilità degli algoritmi).

Cosa rende un sistema una “scatola nera”?

Complesso. Nei sistemi IA contemporanei, il funzionamento di una rete neurale è codificato in migliaia, o addirittura milioni, di coefficienti numerici. Tipicamente, il sistema impara i loro valori nella fase di addestramento. Poiché il funzionamento della rete neurale dipende dalle interazioni complicate tra questi valori, è praticamente impossibile capire come funziona la rete, anche se tutti i parametri sono conosciuti.

Difficoltà nello sviluppo di soluzioni spiegabili. Anche se i modelli di IA utilizzati supportano un certo livello di spiegabilità, è necessario un ulteriore sviluppo per costruire la spiegabilità del sistema. Può essere difficile creare un’esperienza utente per spiegazioni attente ma facilmente comprensibili per gli utenti.

Preoccupazioni relative al rischio. Molti algoritmi IA possono essere ingannati se un attaccante progetta attentamente un input che causa il malfunzionamento del sistema. In un sistema altamente trasparente, potrebbe essere più facile manipolare il sistema per ottenere risultati strani o indesiderati. Pertanto, a volte i sistemi sono intenzionalmente progettati come scatole nere.

Poiché molti dei modelli di deep learning più efficienti e attuali sono modelli a scatola nera (quasi per definizione), i ricercatori sembrano assumere che sia altamente improbabile che saremo in grado di svilupparli come completamente trasparenti. A causa di ciò, la discussione si concentra sul trovare il “livello sufficiente di trasparenza”. Sarebbe sufficiente se gli algoritmi offrissero alle persone una divulgazione di come gli algoritmi sono giunti alla loro decisione e fornire il più piccolo cambiamento “che può essere fatto per ottenere un risultato desiderabile”? Ad esempio, se un algoritmo rifiuta a qualcuno un beneficio sociale, dovrebbe informare la persona del motivo e anche cosa può fare per annullare la decisione.

La spiegazione dovrebbe indicare, ad esempio, qual è l’importo massimo di stipendio da approvare (input) e come diminuire l’importo influenzerà le decisioni prese (manipolazione dell’input). Ma il problema è che il diritto di sapere si applica anche a situazioni in cui il sistema commette errori. In questo caso, potrebbe essere necessario eseguire un’autopsia sull’algoritmo e identificare i fattori che hanno causato al sistema di fare errori. Questo non può essere fatto solo manipolando gli input e gli output.

Trasparenza come comprensibilità

La comprensibilità – o comprensione – di un algoritmo richiede che si spieghi come è stata presa una decisione da un modello IA in modo sufficientemente comprensibile per coloro che ne sono colpiti. Si dovrebbe avere una chiara comprensione di come o perché è stata presa una particolare decisione basata sugli input.

Tuttavia, è notoriamente difficile tradurre concetti derivati algoritmicamente in concetti comprensibili per gli esseri umani. In alcuni paesi, i legislatori hanno discusso se le autorità pubbliche dovrebbero pubblicare gli algoritmi che utilizzano nel processo decisionale automatizzato in termini di codici di programmazione. Tuttavia, la maggior parte delle persone non sa come dare senso ai codici di programmazione. È quindi difficile vedere come la trasparenza venga aumentata pubblicando i codici.

Oggigiorno, scienziati cognitivi e informatici sviluppano descrizioni umane interpretabili di come si comportano le applicazioni e perché. Gli approcci includono, ad esempio, lo sviluppo di strumenti di visualizzazione dei dati, interfacce interattive, spiegazioni verbali o descrizioni a livello meta delle caratteristiche dei modelli. Questi strumenti possono essere estremamente utili per rendere le applicazioni IA più accessibili. Tuttavia, c’è ancora molto lavoro da fare.

Il fatto che la comprensibilità si basi su componenti soggettivi e culturali complica ulteriormente la questione. Ad esempio, la logica con cui vengono interpretate le visualizzazioni – o come vengono fatte le inferenze su di esse – varia tra le culture. Pertanto, gli sviluppatori tecnologici dovrebbero prestare attenzione alla sufficiente comprensione del linguaggio visivo che utilizzano.

Inoltre, molto dipende dal grado di alfabetizzazione sui dati o algoritmi, ad esempio, la conoscenza delle tecnologie contemporanee. In alcune culture, il vocabolario della tecnologia contemporanea è più familiare, ma in molte altre potrebbe essere completamente nuovo. Per aumentare la comprensibilità, è chiaramente necessario un significativo sforzo educativo per migliorare l’alfabetizzazione algoritmica – ad esempio sul “pensiero computazionale”. Questa alfabetizzazione degli utenti avrà un effetto diretto sulla trasparenza in termini di comprensione di base dei sistemi IA da parte degli utenti ordinari. Potrebbe effettivamente fornire il modo più efficiente e pratico per rendere le scatole meno nere per molte persone.

Come rendere i modelli più trasparenti?

Il problema della scatola nera dell’intelligenza artificiale non è nuovo. Fornire trasparenza per i modelli di apprendimento automatico è un’area di ricerca attiva. In linea di massima, ci sono cinque approcci principali:

  • Usare modelli più semplici. Questo, tuttavia, spesso sacrifica l’accuratezza per la spiegabilità.
  • Combinare modelli più semplici e più sofisticati. Mentre il modello sofisticato consente al sistema di eseguire calcoli più complessi, il modello più semplice può essere utilizzato per fornire trasparenza.
  • Modificare gli input per tracciare le dipendenze rilevanti tra input e output. Se una manipolazione degli input cambia i risultati complessivi del modello, questi input possono giocare un ruolo nella classificazione.
  • Progettare i modelli per l’utente. Ciò richiede l’uso di metodi e strumenti cognitivamente e psicologicamente efficienti per visualizzare gli stati del modello o dirigere l’attenzione. Ad esempio, nella visione artificiale, gli stati nei livelli intermedi dei modelli possono essere visualizzati come caratteristiche (come teste, braccia e gambe) per fornire una descrizione comprensibile per la classificazione delle immagini.
  • Seguire le ultime ricerche. Molte ricerche sono in corso su vari aspetti dell’IA spiegabile – comprese le dimensioni socio-cognitive – e nuove tecniche vengono sviluppate.

More Insights

Ingegneri AI e Ingegneri Responsabili: Innovazione e Etica a Confronto

L'intelligenza artificiale ha fatto esplodere le sue capacità, portando gli ingegneri dell'IA a essere in prima linea nell'innovazione. Tuttavia, questa potenza comporta responsabilità, e garantire...

AI Responsabile: Oltre il Buzzword

La dottoressa Anna Zeiter sottolinea che "l'IA responsabile non è solo un termine di moda, ma un imperativo fondamentale" per garantire la fiducia e la responsabilità nell'uso delle tecnologie...

Integrare l’IA rispettando la compliance

L'adozione dell'IA nelle aziende e nella produzione sta fallendo almeno due volte più spesso di quanto non abbia successo. Il Cloud Security Alliance (CSA) afferma che il problema reale è che le...

La preservazione dei dati nell’era dell’IA generativa

Gli strumenti di intelligenza artificiale generativa (GAI) sollevano preoccupazioni legali come la privacy dei dati e la sicurezza. È fondamentale che le organizzazioni stabiliscano politiche di...

Intelligenza Artificiale Responsabile: Principi e Vantaggi

Oggi, l'IA sta cambiando il nostro modo di vivere e lavorare, quindi è molto importante utilizzarla nel modo giusto. L'IA responsabile significa creare e utilizzare IA che sia equa, chiara e...

Intelligenza Artificiale: Costruire Fiducia e Governance per il Successo Aziendale

Negli ultimi venti anni, l'intelligenza artificiale (AI) è diventata fondamentale per prendere decisioni aziendali e affrontare sfide complesse. È essenziale costruire fiducia nell'AI attraverso...

Regolamentazione dell’IA in Spagna: Innovazioni e Sfide

La Spagna è all'avanguardia nella governance dell'IA con il primo regolatore europeo per l'IA (AESIA) e una legge nazionale sull'IA in fase di sviluppo. Questa legge mira a implementare e integrare il...

Regolamentare l’IA: sfide e opportunità globali

L'intelligenza artificiale (AI) ha fatto enormi progressi negli ultimi anni, diventando sempre più presente nella consapevolezza pubblica. I governi e gli organismi di regolamentazione in tutto il...

AI e scommesse: opportunità e responsabilità nel futuro del gioco

L'implementazione dell'Intelligenza Artificiale (IA) nel settore del gioco d'azzardo offre opportunità significative, ma comporta anche crescenti aspettative normative e rischi di responsabilità. È...