Trasparenza nell’Intelligenza Artificiale: Comprendere il Futuro

Cos’è la trasparenza? – Etica dell’IA

La trasparenza può essere definita in molteplici modi. Ci sono diversi concetti vicini che vengono talvolta utilizzati come sinonimi di trasparenza, tra cui “spiegabilità” (la ricerca sull’IA in questo settore è nota come “XAI”), “interpretabilità”, “comprensibilità” e “scatola nera”.

La trasparenza è, in linea di massima, una proprietà di un’applicazione. Riguarda quanto è possibile comprendere il funzionamento interno di un sistema “in teoria”. Può anche significare il modo di fornire spiegazioni dei modelli e delle decisioni algoritmiche che siano comprensibili per l’utente. Questo si occupa della percezione pubblica e della comprensione di come funziona l’IA. Inoltre, la trasparenza può essere vista come un ideale socio-tecnico e normativo di “apertura”.

Ci sono molte domande aperte riguardo a ciò che costituisce la trasparenza o spiegabilità e quale livello di trasparenza sia sufficiente per i diversi portatori di interesse. A seconda della situazione specifica, il significato preciso di “trasparenza” può variare. È una questione scientifica aperta se ci siano diversi tipi di trasparenza. Inoltre, la trasparenza può riferirsi a cose diverse, sia che si tratti di analizzare il significato legale di bias ingiusti o di discuterne in termini di caratteristiche dei sistemi di apprendimento automatico.

Trasparenza come proprietà di un sistema

Come proprietà di un sistema, la trasparenza si occupa di come funziona o opera internamente un modello. La trasparenza è ulteriormente suddivisa in “simulabilità” (comprensione del funzionamento del modello), “decomponibilità” (comprensione dei componenti individuali) e trasparenza algoritmica (visibilità degli algoritmi).

Cosa rende un sistema una “scatola nera”?

Complesso. Nei sistemi IA contemporanei, il funzionamento di una rete neurale è codificato in migliaia, o addirittura milioni, di coefficienti numerici. Tipicamente, il sistema impara i loro valori nella fase di addestramento. Poiché il funzionamento della rete neurale dipende dalle interazioni complicate tra questi valori, è praticamente impossibile capire come funziona la rete, anche se tutti i parametri sono conosciuti.

Difficoltà nello sviluppo di soluzioni spiegabili. Anche se i modelli di IA utilizzati supportano un certo livello di spiegabilità, è necessario un ulteriore sviluppo per costruire la spiegabilità del sistema. Può essere difficile creare un’esperienza utente per spiegazioni attente ma facilmente comprensibili per gli utenti.

Preoccupazioni relative al rischio. Molti algoritmi IA possono essere ingannati se un attaccante progetta attentamente un input che causa il malfunzionamento del sistema. In un sistema altamente trasparente, potrebbe essere più facile manipolare il sistema per ottenere risultati strani o indesiderati. Pertanto, a volte i sistemi sono intenzionalmente progettati come scatole nere.

Poiché molti dei modelli di deep learning più efficienti e attuali sono modelli a scatola nera (quasi per definizione), i ricercatori sembrano assumere che sia altamente improbabile che saremo in grado di svilupparli come completamente trasparenti. A causa di ciò, la discussione si concentra sul trovare il “livello sufficiente di trasparenza”. Sarebbe sufficiente se gli algoritmi offrissero alle persone una divulgazione di come gli algoritmi sono giunti alla loro decisione e fornire il più piccolo cambiamento “che può essere fatto per ottenere un risultato desiderabile”? Ad esempio, se un algoritmo rifiuta a qualcuno un beneficio sociale, dovrebbe informare la persona del motivo e anche cosa può fare per annullare la decisione.

La spiegazione dovrebbe indicare, ad esempio, qual è l’importo massimo di stipendio da approvare (input) e come diminuire l’importo influenzerà le decisioni prese (manipolazione dell’input). Ma il problema è che il diritto di sapere si applica anche a situazioni in cui il sistema commette errori. In questo caso, potrebbe essere necessario eseguire un’autopsia sull’algoritmo e identificare i fattori che hanno causato al sistema di fare errori. Questo non può essere fatto solo manipolando gli input e gli output.

Trasparenza come comprensibilità

La comprensibilità – o comprensione – di un algoritmo richiede che si spieghi come è stata presa una decisione da un modello IA in modo sufficientemente comprensibile per coloro che ne sono colpiti. Si dovrebbe avere una chiara comprensione di come o perché è stata presa una particolare decisione basata sugli input.

Tuttavia, è notoriamente difficile tradurre concetti derivati algoritmicamente in concetti comprensibili per gli esseri umani. In alcuni paesi, i legislatori hanno discusso se le autorità pubbliche dovrebbero pubblicare gli algoritmi che utilizzano nel processo decisionale automatizzato in termini di codici di programmazione. Tuttavia, la maggior parte delle persone non sa come dare senso ai codici di programmazione. È quindi difficile vedere come la trasparenza venga aumentata pubblicando i codici.

Oggigiorno, scienziati cognitivi e informatici sviluppano descrizioni umane interpretabili di come si comportano le applicazioni e perché. Gli approcci includono, ad esempio, lo sviluppo di strumenti di visualizzazione dei dati, interfacce interattive, spiegazioni verbali o descrizioni a livello meta delle caratteristiche dei modelli. Questi strumenti possono essere estremamente utili per rendere le applicazioni IA più accessibili. Tuttavia, c’è ancora molto lavoro da fare.

Il fatto che la comprensibilità si basi su componenti soggettivi e culturali complica ulteriormente la questione. Ad esempio, la logica con cui vengono interpretate le visualizzazioni – o come vengono fatte le inferenze su di esse – varia tra le culture. Pertanto, gli sviluppatori tecnologici dovrebbero prestare attenzione alla sufficiente comprensione del linguaggio visivo che utilizzano.

Inoltre, molto dipende dal grado di alfabetizzazione sui dati o algoritmi, ad esempio, la conoscenza delle tecnologie contemporanee. In alcune culture, il vocabolario della tecnologia contemporanea è più familiare, ma in molte altre potrebbe essere completamente nuovo. Per aumentare la comprensibilità, è chiaramente necessario un significativo sforzo educativo per migliorare l’alfabetizzazione algoritmica – ad esempio sul “pensiero computazionale”. Questa alfabetizzazione degli utenti avrà un effetto diretto sulla trasparenza in termini di comprensione di base dei sistemi IA da parte degli utenti ordinari. Potrebbe effettivamente fornire il modo più efficiente e pratico per rendere le scatole meno nere per molte persone.

Come rendere i modelli più trasparenti?

Il problema della scatola nera dell’intelligenza artificiale non è nuovo. Fornire trasparenza per i modelli di apprendimento automatico è un’area di ricerca attiva. In linea di massima, ci sono cinque approcci principali:

  • Usare modelli più semplici. Questo, tuttavia, spesso sacrifica l’accuratezza per la spiegabilità.
  • Combinare modelli più semplici e più sofisticati. Mentre il modello sofisticato consente al sistema di eseguire calcoli più complessi, il modello più semplice può essere utilizzato per fornire trasparenza.
  • Modificare gli input per tracciare le dipendenze rilevanti tra input e output. Se una manipolazione degli input cambia i risultati complessivi del modello, questi input possono giocare un ruolo nella classificazione.
  • Progettare i modelli per l’utente. Ciò richiede l’uso di metodi e strumenti cognitivamente e psicologicamente efficienti per visualizzare gli stati del modello o dirigere l’attenzione. Ad esempio, nella visione artificiale, gli stati nei livelli intermedi dei modelli possono essere visualizzati come caratteristiche (come teste, braccia e gambe) per fornire una descrizione comprensibile per la classificazione delle immagini.
  • Seguire le ultime ricerche. Molte ricerche sono in corso su vari aspetti dell’IA spiegabile – comprese le dimensioni socio-cognitive – e nuove tecniche vengono sviluppate.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...