Cosa Le Organizzazioni Devono Fare per Curare Responsabilmente l’IA
Molte organizzazioni utilizzano l’intelligenza artificiale (IA) senza rendersi conto. La questione è: come vengono utilizzate queste tecnologie e come si può garantire che lo siano in un modo responsabile?
La fiducia nell’IA è una sfida socio-tecnica, e la parte più difficile riguarda l’aspetto umano. Un approccio completo può essere suddiviso in tre componenti: persone, processi e strumenti, accompagnati da alcuni principi fondamentali per affrontarli all’interno di un’organizzazione.
Tre Principi Fondamentali
Tra le tre componenti, le persone rappresentano l’aspetto più complesso per trovare il giusto equilibrio nell’IA responsabile.
Principio 1: Umiltà
Il primo principio è affrontare il tema con una tremenda umiltà. I membri di un’organizzazione devono affrontare un processo di apprendimento e disapprendimento. È fondamentale includere individui provenienti da diverse discipline nel dialogo sull’IA, al fine di svilupparla in modo olistico.
Adottare una mentalità di crescita è essenziale per promuovere un’IA responsabile. Le organizzazioni devono garantire ai propri membri uno spazio psicologicamente sicuro per condurre conversazioni difficili riguardo all’argomento.
Principio 2: Prospettive Varie
Il secondo principio è riconoscere che le persone provengono da esperienze di vita diverse e che tutte le prospettive sono importanti. È necessario che le organizzazioni comprendano la diversità della propria forza lavoro e delle persone coinvolte nella creazione e governance dei modelli IA.
È cruciale che chi ha vissuto esperienze di vita diverse sia presente quando si discute di aspetti come l’appropriatezza delle soluzioni proposte, il problema da risolvere e i dati da utilizzare.
Principio 3: Multidisciplinarietà
Infine, i team che costruiscono e governano i modelli IA devono essere multidisciplinari. Ciò significa avere persone con background vari, come sociologi, antropologi e esperti legali, per garantire un approccio responsabile.
Un Riconoscimento dei Pregiudizi
Uno dei miti comuni riguardanti l’IA è che il 100% dello sforzo consista nel codificare. In realtà, oltre il 70% degli sforzi consiste nel determinare se i dati utilizzati siano appropriati. I dati sono un artefatto dell’esperienza umana, generati da individui che possiedono innate bias.
È fondamentale che le organizzazioni siano consapevoli di tali pregiudizi e che abbiano il coraggio di guardare dentro di sé e valutare se i modelli IA riflettono i valori organizzativi.
Promuovere la Trasparenza
Le organizzazioni devono essere trasparenti riguardo alle decisioni prese sui dati e sugli approcci adottati. È importante creare una scheda informativa per le soluzioni IA, contenente dettagli come l’uso previsto, l’origine dei dati, la metodologia utilizzata e i risultati delle eventuali verifiche.
Le persone devono anche essere sufficientemente autocoscienti da riconoscere se la riflessione nei loro modelli non allinei con i loro valori e, in tal caso, modificare l’approccio.
È fondamentale ricordare che tutti i dati sono soggetti a bias. La chiave è essere trasparenti riguardo al perché si considerano determinati dati come i più rilevanti per il modello.
La fiducia nell’IA è guadagnata, non concessa. È essenziale affrontare conversazioni difficili con i membri del team riguardo alle loro origini di bias e riconoscere che creare un modello IA responsabile e affidabile non è un processo lineare, ma richiede un impegno costante.