Una chiamata alla trasparenza e alla responsabilità nell’Intelligenza Artificiale
L’ intelligenza artificiale (IA) viene sempre più utilizzata per decisioni che influenzano le nostre vite quotidiane, comprese quelle che possono avere implicazioni cruciali, talvolta anche mortali. È quindi fondamentale chiedere una maggiore trasparenza e responsabilità nell’IA: un’IA che sia spiegabile per i dipendenti e i clienti e allineata ai principi fondamentali dell’azienda.
La copertura mediatica dell’IA
La copertura mediatica sull’IA tende a essere o entusiasta o allarmante. Nel primo caso, l’IA è presentata come una tecnologia divina capace di risolvere ogni problema, dalla cura del cancro alla lotta contro il riscaldamento globale. Nel secondo caso, si fa riferimento a narrazioni frankensteiniane o ispirate a Terminator, che ritraggono l’IA come una tecnologia che non possiamo controllare e che supererà gli esseri umani in modi che non possiamo prevedere, minacciando i nostri posti di lavoro e, in ultima analisi, la sopravvivenza dell’umanità.
Negli ultimi anni, il numero di storie negative riguardanti l’IA è aumentato notevolmente. Il tech-entrepreneur Elon Musk ha affermato che l’IA è più pericolosa delle armi nucleari. Ci sono stati numerosi casi in cui algoritmi avanzati o alimentati da IA sono stati abusati, hanno deviato o causato danni, come nel caso della società di consulenza politica britannica Cambridge Analytica, che ha raccolto i dati di milioni di utenti di Facebook senza il loro consenso per influenzare le elezioni negli Stati Uniti.
Bias e responsabilità nell’IA
È diventato chiaro che i modelli di IA possono replicare e istituzionalizzare bias. Un esempio è rappresentato dal modello COMPAS, utilizzato negli Stati Uniti per prevedere la recidiva, che si è rivelato prevenuto contro le persone di colore. Similmente, uno strumento di reclutamento alimentato da IA ha mostrato bias contro le donne.
Alcuni tipi di IA possono essere manipolati da forze maligne e comportarsi in modo totalmente diverso da quanto previsto. Questo è accaduto con un famoso Twitter-bot che, dopo meno di un giorno, si è trasformato da chatbot amichevole a un troll che pubblicava messaggi infiammatori e teorie del complotto.
L’importanza della trasparenza
La trasparenza nell’IA è essenziale. L’IA trasparente è quella che può essere spiegata a dipendenti e clienti. Tuttavia, rendere l’IA trasparente non è semplice, poiché l’IA, per sua natura, non è trasparente. La domanda cruciale diventa: come possiamo rendere l’IA il più trasparente possibile? Come possiamo spiegare come è stata presa una decisione basata su IA, su quali basi e perché?
Proposte per un’IA responsabile
Il documento esplora quattro proposte sviluppate per un’IA trasparente e responsabile:
- AlgoInsight: un toolkit tecnico per convalidare i modelli di IA e aiutare a spiegare il processo decisionale degli stessi.
- Il Marchio di Qualità FRR per la Robotica e l’IA, per garantire ai clienti che l’IA viene utilizzata responsabilmente.
- Etica Digitale: un framework per aiutare le organizzazioni a sviluppare principi guida per l’uso della tecnologia.
- Modelli di Business Guidati dall’IA: un percorso completo, dalla definizione della visione alla cattura del valore.
Detecting Hidden Bias
Per creare un’IA trasparente, è fondamentale controllare la correttezza tecnica del modello e valutare se i risultati siano statisticamente solidi. È necessario controllare se determinati gruppi sono sottorappresentati nei risultati e, in caso affermativo, apportare modifiche al modello per rimediare a tale bias.
La richiesta di etica e responsabilità
La richiesta di un’IA trasparente e responsabile è parte di un dibattito più ampio sull’etica aziendale. Le aziende devono affrontare domande cruciali come quali siano i loro valori fondamentali e come questi si relazionano alle loro capacità tecnologiche e dati.
La trasparenza e la responsabilità nell’IA non solo aiuteranno ad evitare disastri, ma contribuiranno anche a realizzare il potenziale positivo dell’IA nel migliorare la vita quotidiana.