Trasparenza nell’Intelligenza Artificiale: Comprendere il Futuro

Cos’è la trasparenza? – Etica dell’IA

La trasparenza può essere definita in molteplici modi. Ci sono diversi concetti vicini che vengono talvolta utilizzati come sinonimi di trasparenza, tra cui “spiegabilità” (la ricerca sull’IA in questo settore è nota come “XAI”), “interpretabilità”, “comprensibilità” e “scatola nera”.

La trasparenza è, in linea di massima, una proprietà di un’applicazione. Riguarda quanto è possibile comprendere il funzionamento interno di un sistema “in teoria”. Può anche significare il modo di fornire spiegazioni dei modelli e delle decisioni algoritmiche che siano comprensibili per l’utente. Questo si occupa della percezione pubblica e della comprensione di come funziona l’IA. Inoltre, la trasparenza può essere vista come un ideale socio-tecnico e normativo di “apertura”.

Ci sono molte domande aperte riguardo a ciò che costituisce la trasparenza o spiegabilità e quale livello di trasparenza sia sufficiente per i diversi portatori di interesse. A seconda della situazione specifica, il significato preciso di “trasparenza” può variare. È una questione scientifica aperta se ci siano diversi tipi di trasparenza. Inoltre, la trasparenza può riferirsi a cose diverse, sia che si tratti di analizzare il significato legale di bias ingiusti o di discuterne in termini di caratteristiche dei sistemi di apprendimento automatico.

Trasparenza come proprietà di un sistema

Come proprietà di un sistema, la trasparenza si occupa di come funziona o opera internamente un modello. La trasparenza è ulteriormente suddivisa in “simulabilità” (comprensione del funzionamento del modello), “decomponibilità” (comprensione dei componenti individuali) e trasparenza algoritmica (visibilità degli algoritmi).

Cosa rende un sistema una “scatola nera”?

Complesso. Nei sistemi IA contemporanei, il funzionamento di una rete neurale è codificato in migliaia, o addirittura milioni, di coefficienti numerici. Tipicamente, il sistema impara i loro valori nella fase di addestramento. Poiché il funzionamento della rete neurale dipende dalle interazioni complicate tra questi valori, è praticamente impossibile capire come funziona la rete, anche se tutti i parametri sono conosciuti.

Difficoltà nello sviluppo di soluzioni spiegabili. Anche se i modelli di IA utilizzati supportano un certo livello di spiegabilità, è necessario un ulteriore sviluppo per costruire la spiegabilità del sistema. Può essere difficile creare un’esperienza utente per spiegazioni attente ma facilmente comprensibili per gli utenti.

Preoccupazioni relative al rischio. Molti algoritmi IA possono essere ingannati se un attaccante progetta attentamente un input che causa il malfunzionamento del sistema. In un sistema altamente trasparente, potrebbe essere più facile manipolare il sistema per ottenere risultati strani o indesiderati. Pertanto, a volte i sistemi sono intenzionalmente progettati come scatole nere.

Poiché molti dei modelli di deep learning più efficienti e attuali sono modelli a scatola nera (quasi per definizione), i ricercatori sembrano assumere che sia altamente improbabile che saremo in grado di svilupparli come completamente trasparenti. A causa di ciò, la discussione si concentra sul trovare il “livello sufficiente di trasparenza”. Sarebbe sufficiente se gli algoritmi offrissero alle persone una divulgazione di come gli algoritmi sono giunti alla loro decisione e fornire il più piccolo cambiamento “che può essere fatto per ottenere un risultato desiderabile”? Ad esempio, se un algoritmo rifiuta a qualcuno un beneficio sociale, dovrebbe informare la persona del motivo e anche cosa può fare per annullare la decisione.

La spiegazione dovrebbe indicare, ad esempio, qual è l’importo massimo di stipendio da approvare (input) e come diminuire l’importo influenzerà le decisioni prese (manipolazione dell’input). Ma il problema è che il diritto di sapere si applica anche a situazioni in cui il sistema commette errori. In questo caso, potrebbe essere necessario eseguire un’autopsia sull’algoritmo e identificare i fattori che hanno causato al sistema di fare errori. Questo non può essere fatto solo manipolando gli input e gli output.

Trasparenza come comprensibilità

La comprensibilità – o comprensione – di un algoritmo richiede che si spieghi come è stata presa una decisione da un modello IA in modo sufficientemente comprensibile per coloro che ne sono colpiti. Si dovrebbe avere una chiara comprensione di come o perché è stata presa una particolare decisione basata sugli input.

Tuttavia, è notoriamente difficile tradurre concetti derivati algoritmicamente in concetti comprensibili per gli esseri umani. In alcuni paesi, i legislatori hanno discusso se le autorità pubbliche dovrebbero pubblicare gli algoritmi che utilizzano nel processo decisionale automatizzato in termini di codici di programmazione. Tuttavia, la maggior parte delle persone non sa come dare senso ai codici di programmazione. È quindi difficile vedere come la trasparenza venga aumentata pubblicando i codici.

Oggigiorno, scienziati cognitivi e informatici sviluppano descrizioni umane interpretabili di come si comportano le applicazioni e perché. Gli approcci includono, ad esempio, lo sviluppo di strumenti di visualizzazione dei dati, interfacce interattive, spiegazioni verbali o descrizioni a livello meta delle caratteristiche dei modelli. Questi strumenti possono essere estremamente utili per rendere le applicazioni IA più accessibili. Tuttavia, c’è ancora molto lavoro da fare.

Il fatto che la comprensibilità si basi su componenti soggettivi e culturali complica ulteriormente la questione. Ad esempio, la logica con cui vengono interpretate le visualizzazioni – o come vengono fatte le inferenze su di esse – varia tra le culture. Pertanto, gli sviluppatori tecnologici dovrebbero prestare attenzione alla sufficiente comprensione del linguaggio visivo che utilizzano.

Inoltre, molto dipende dal grado di alfabetizzazione sui dati o algoritmi, ad esempio, la conoscenza delle tecnologie contemporanee. In alcune culture, il vocabolario della tecnologia contemporanea è più familiare, ma in molte altre potrebbe essere completamente nuovo. Per aumentare la comprensibilità, è chiaramente necessario un significativo sforzo educativo per migliorare l’alfabetizzazione algoritmica – ad esempio sul “pensiero computazionale”. Questa alfabetizzazione degli utenti avrà un effetto diretto sulla trasparenza in termini di comprensione di base dei sistemi IA da parte degli utenti ordinari. Potrebbe effettivamente fornire il modo più efficiente e pratico per rendere le scatole meno nere per molte persone.

Come rendere i modelli più trasparenti?

Il problema della scatola nera dell’intelligenza artificiale non è nuovo. Fornire trasparenza per i modelli di apprendimento automatico è un’area di ricerca attiva. In linea di massima, ci sono cinque approcci principali:

  • Usare modelli più semplici. Questo, tuttavia, spesso sacrifica l’accuratezza per la spiegabilità.
  • Combinare modelli più semplici e più sofisticati. Mentre il modello sofisticato consente al sistema di eseguire calcoli più complessi, il modello più semplice può essere utilizzato per fornire trasparenza.
  • Modificare gli input per tracciare le dipendenze rilevanti tra input e output. Se una manipolazione degli input cambia i risultati complessivi del modello, questi input possono giocare un ruolo nella classificazione.
  • Progettare i modelli per l’utente. Ciò richiede l’uso di metodi e strumenti cognitivamente e psicologicamente efficienti per visualizzare gli stati del modello o dirigere l’attenzione. Ad esempio, nella visione artificiale, gli stati nei livelli intermedi dei modelli possono essere visualizzati come caratteristiche (come teste, braccia e gambe) per fornire una descrizione comprensibile per la classificazione delle immagini.
  • Seguire le ultime ricerche. Molte ricerche sono in corso su vari aspetti dell’IA spiegabile – comprese le dimensioni socio-cognitive – e nuove tecniche vengono sviluppate.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...