Contestualizzare i risultati relativi all’uso dell’IA negli scenari di prestito e assunzione.
I risultati di questo studio sull’impatto dell’IA sulla discriminazione nei prestiti e nelle assunzioni devono essere compresi nel più ampio panorama politico. L’EU AI Act, ad esempio, impone un uso responsabile dell’IA attraverso la supervisione umana e sottolinea la non discriminazione. L’articolo 10 obbliga i fornitori di sistemi di IA a implementare una solida governance dei dati, esaminando i set di dati per individuare i pregiudizi e adottando misure di mitigazione. Questa rilevanza politica informa l’esplorazione, da parte del nostro studio, della supervisione umana nel processo decisionale dell’IA, sottolineando la necessità di un monitoraggio continuo, di una revisione post-distribuzione e della capacità di annullare le decisioni dell’IA. L’esame, da parte dello studio, degli effetti dell’IA, in particolare per quanto riguarda i pregiudizi e la discriminazione, rappresenta un contributo fondamentale agli obiettivi dell’AI Act in materia di identificazione e mitigazione dei pregiudizi.
Inoltre, la ricerca qui presentata rivela che i sistemi decisionali supportati dall’IA, combinati con la supervisione umana, possono sia perpetuare che mitigare i pregiudizi: una sfumatura con un contesto significativo all’interno delle più ampie considerazioni etiche relative alla distribuzione di IA ad alto rischio. Le politiche attuali spesso si basano sul presupposto che la supervisione umana rettificherà le carenze dell’IA, cosa che questo studio mette in discussione dimostrando che i pregiudizi umani possono permanere o addirittura amplificarsi quando interagiscono con le raccomandazioni dell’IA, anche quelle “eque”. Da questo punto di vista, gli attuali interventi normativi e gli strumenti politici dovrebbero essere criticamente rivalutati per incorporare i potenziali pregiudizi che la supervisione umana può introdurre. Le risposte politiche dovrebbero anche essere proattive, prendendo in considerazione meccanismi di feedback, strumenti di rilevamento dei pregiudizi migliorati al di là dei test dell’IA e quadri collaborativi efficaci uomo-IA per integrare l’input umano invece di sostituirlo o imitarlo semplicemente.
Implicazioni pratiche e considerazioni future
Le implicazioni reali di questi risultati si estendono oltre i mandati politici e arrivano alle considerazioni sulla progettazione etica dell’IA. Interventi come le revisioni delle norme organizzative, le giustificazioni trasparenti delle deroghe e il monitoraggio continuo dei risultati sono fondamentali. I decision-maker necessitano di accesso a informazioni dettagliate sulla loro performance e sui loro pregiudizi, insieme agli strumenti per spiegare le loro deroghe, il che promuove un ecosistema proattivo di controlli reciproci. Questa strategia olistica mira a ottimizzare la collaborazione tra IA e uomo in modo che le decisioni soddisfino costantemente sia gli obiettivi organizzativi sia le considerazioni etiche, comprese solide protezioni contro le pratiche discriminatorie. Inquadrando la supervisione all’interno di scenari realistici e promuovendo una prospettiva sistemica, i futuri ambienti di sperimentazione normativa per l’IA possono esplorare la governance dei dati, stabilire le migliori pratiche e promuovere la fiducia del pubblico nei sistemi utilizzati per i prestiti e le assunzioni.
Quali sono le domande chiave di ricerca?
Questa ricerca cerca di comprendere l’intricato equilibrio tra fiducia e controllo nella supervisione umana del processo decisionale dell’IA. Man mano che i sistemi di IA diventano più diffusi, in particolare in aree ad alto rischio come i prestiti e l’assunzione di personale, è fondamentale determinare il livello appropriato di affidamento su questi sistemi. Le domande chiave ruotano attorno all’identificazione di scenari di “eccessivo affidamento”, in cui gli utenti accettano incondizionatamente le raccomandazioni dell’IA anche quando sono difettose, e di “insufficiente affidamento”, in cui gli utenti respingono i validi consigli dell’IA a favore del proprio giudizio. L’obiettivo generale è accertare come tali comportamenti di affidamento influiscono sull’equità del processo decisionale assistito dall’IA e ricavare spunti per la progettazione di meccanismi di supervisione efficaci.
Una domanda centrale della ricerca è se fornire un’IA teoricamente imparziale si traduca in decisioni meno distorte da parte degli utenti. Questo esplora se gli utenti si fidano e utilizzano in modo appropriato le IA eque. Viceversa, lo studio si chiede se gli utenti mantengano la loro capacità e volontà di comprendere e mettere in discussione l’IA, anche quando è teoricamente imparziale. Questo indaga il potenziale per “l’avversione agli algoritmi”, in cui gli utenti rifiutano le decisioni algoritmiche a favore delle proprie prospettive, potenzialmente distorte. La ricerca mira a determinare se la sovrascrittura distorta durante la supervisione ex-post possa annullare i vantaggi degli sforzi ex-ante per garantire l’equità dell’IA e, viceversa, se la supervisione ex-post possa mitigare l’impatto dei fallimenti nella supervisione ex-ante.
In definitiva, lo studio cerca di determinare in che modo le preferenze degli utenti influiscono sulle loro decisioni di seguire o rifiutare i consigli dell’IA e se le raccomandazioni dell’IA possono amplificare l’impatto delle tendenze discriminatorie. In sostanza, si chiede se il supporto dell’IA possa esacerbare o perpetuare la discriminazione, anche quando l’IA stessa è progettata per essere equa. Esplorando queste domande, la ricerca mira a fornire spunti per la progettazione di sistemi di supervisione umana che minimizzino i risultati discriminatori e massimizzino i benefici della complementarietà uomo-IA in contesti decisionali delicati.
Qual è la metodologia impiegata in questa ricerca?
Questa ricerca adotta un approccio a metodi misti, impiegando un disegno esplicativo sequenziale. Questo disegno prevede una fase iniziale di raccolta e analisi dei dati quantitativi, seguita da una successiva fase di raccolta e analisi dei dati qualitativi, con la fase qualitativa che serve a spiegare ed elaborare i risultati quantitativi. La componente quantitativa consiste in un esperimento comportamentale condotto online, simulando le relazioni datore di lavoro-dipendente e prestatore-mutuatario con professionisti delle risorse umane e del settore bancario in Italia e Germania (N=1411). I partecipanti hanno preso decisioni su candidati ipotetici, con incentivi legati alla performance dei candidati scelti, imitando le valutazioni professionali del mondo reale.
Dopo l’esperimento quantitativo, è stata intrapresa una fase qualitativa, comprendente interviste semi-strutturate e workshop online in piccoli gruppi con un sottoinsieme di partecipanti allo studio e un workshop di co-design con esperti e responsabili politici. Le interviste hanno cercato di esplorare le esperienze dei partecipanti con l’IA nei loro contesti professionali, i loro processi decisionali e le loro percezioni di equità e pregiudizio. I workshop sono serviti a esplorare ulteriormente la validità ecologica dello studio, raccogliendo feedback su come le caratteristiche dei candidati selezionati e l’impostazione sperimentale si rapportano a situazioni di vita reale, e a generare nuove idee su come mitigare i pregiudizi umani e algoritmici. Questa triangolazione dei dati quantitativi e qualitativi fornisce una comprensione completa e sfumata dell’impatto della supervisione umana nel processo decisionale assistito dall’IA.
Per arricchire l’analisi e derivare intuizioni attuabili, sono stati incorporati metodi di progettazione partecipativa. Un workshop di co-design ha riunito esperti di diverse discipline per ideare la mitigazione dei pregiudizi umani e algoritmici nel processo decisionale supportato dall’IA. Gli esperti hanno discusso argomenti quali la definizione di equità algoritmica e umana, la traduzione dell’equità in regole pratiche, i requisiti normativi per la supervisione e la promozione della consapevolezza tra utenti e sviluppatori. Questo coinvolgimento diversificato ha permesso la formulazione di raccomandazioni politiche concrete e priorità di ricerca orientate al futuro derivanti da questo studio su larga scala sul modo appropriato di implementare sistemi di supervisione umana per evitare risultati discriminatori. Infine, i responsabili politici sono stati invitati a riflettere sui risultati e a discutere le implementazioni politiche.
Quali sono i principali risultati dell’esperimento quantitativo?
L’esperimento quantitativo, uno studio comportamentale su larga scala che ha coinvolto professionisti delle risorse umane e del settore bancario in Italia e Germania (N=1411), ha prodotto diversi risultati degni di nota riguardo all’impatto della supervisione umana sulla discriminazione nei sistemi di supporto decisionale basati sull’intelligenza artificiale. Un risultato centrale è stato che i supervisori umani avevano la stessa probabilità di avallare raccomandazioni discriminatorie da un’IA generica quanto di seguire i suggerimenti di un’IA specificamente programmata per l’equità. Ciò illustra chiaramente che la supervisione umana, nella sua attuale implementazione, non previene intrinsecamente la discriminazione quando un’IA generica potenzialmente distorta viene utilizzata come parte del processo decisionale. Inoltre, lo studio ha scoperto che quando è stata impiegata un’IA “equa”, le scelte fatte dai partecipanti mostravano meno pregiudizi di genere. Tuttavia, ciò non ha eliminato del tutto la discriminazione, poiché le scelte sono rimaste influenzate dai pregiudizi individuali dei partecipanti stessi, mostrando la persistenza dei pregiudizi umani nonostante la presenza di un supporto algoritmico apparentemente imparziale.
Nello specifico, l’IA generica, ottimizzata per l’accuratezza e che mostrava tendenze a favorire gli uomini e i candidati tedeschi, è stata osservata esercitare influenza, portando a scelte discriminatorie contro le donne e i candidati italiani. Viceversa, l’IA “equa”, progettata per ridurre al minimo i pregiudizi, sembrava mitigare la discriminazione contro gli uomini, ma non ha negato completamente gli atteggiamenti pregiudiziali esistenti. Ciò suggerisce che, sebbene un’IA equa possa spingere le decisioni verso risultati meno discriminatori, non può sradicare completamente i pregiudizi umani profondamente radicati. In particolare, l’esperimento ha anche placato alcune preoccupazioni, dimostrando che la semplice presenza dell’IA, anche se programmata per l’equità, non aumentava necessariamente l’impatto delle tendenze discriminatorie. Lo studio ha rilevato che le preferenze individuali non hanno avuto una maggiore influenza sulle scelte quando era presente il supporto dell’IA.
Risultati aggiuntivi
Oltre agli aspetti principali del pregiudizio, l’esperimento ha anche valutato le prestazioni dei decisori con e senza il supporto dell’IA. Stranamente, l’accesso alle raccomandazioni dell’IA, sia da un’IA equa che da un’IA generica, non ha migliorato in modo dimostrabile la qualità delle decisioni umane in termini di obiettivi prefissati. Tuttavia, l’esperimento ha mostrato che seguire le raccomandazioni dell’IA avrebbe fatto guadagnare al decisore più punti rispetto alle decisioni basate interamente sull’intuizione umana non assistita.
Quali sono i temi principali che emergono dagli studi qualitativi post-sperimentali?
Gli studi qualitativi post-sperimentali, comprendenti interviste individuali e workshop collaborativi sia con i partecipanti allo studio che con esperti di etica dell’IA, hanno approfondito diversi temi chiave relativi alla supervisione umana nel processo decisionale assistito dall’IA. Un tema prominente è stata l’influenza spesso non riconosciuta delle norme organizzative e degli interessi organizzativi percepiti sul processo decisionale. I partecipanti hanno espresso frequentemente la priorità delle strategie e degli obiettivi aziendali, anche quando tali priorità erano in conflitto con considerazioni di equità individuale o con le raccomandazioni di un’IA “equa”. Ciò suggerisce la necessità di interventi mirati alla cultura organizzativa e di fornire indicazioni più chiare su quando e come scavalcare le raccomandazioni dell’IA a favore di principi etici. I dati qualitativi hanno inoltre illuminato una tensione tra le aspirazioni dei partecipanti verso l’efficienza guidata dall’IA e le loro esitazioni pratiche a rinunciare alle valutazioni “soft” delle qualità agli algoritmi, in particolare per quanto riguarda gli attributi sfumati identificati durante le interviste.
Legato all’influenza organizzativa è stato il tema ricorrente dei *fattori contestuali*, che i partecipanti hanno identificato come un ruolo sostanziale nella loro interazione con l’IA e nella loro fiducia nelle raccomandazioni dell’IA. Ciò ha evidenziato i limiti della visione semplificata e decontestualizzata dei candidati nello scenario sperimentale. I partecipanti hanno sottolineato la loro necessità di una comprensione olistica delle circostanze e delle motivazioni di un candidato, qualità che ritenevano che l’IA non potesse catturare adeguatamente. Il desiderio di *spiegabilità e giustificazione* è emerso anche come una caratteristica distintiva di un’efficace supervisione umana. I partecipanti avevano bisogno di capire il ragionamento alla base delle raccomandazioni dell’IA non solo per rafforzare il proprio giudizio e la propria competenza, ma anche per garantire trasparenza e responsabilità nei confronti dei candidati. Alcuni partecipanti hanno persino espresso una riluttanza ad adottare determinati sistemi di IA perché il modo in cui venivano prese le decisioni non era trasparente. I risultati combinati dello studio suggeriscono l’importanza di un approccio incentrato sull’uomo all’implementazione dell’IA, in cui la tecnologia serve come strumento per facilitare l’interpretazione e la valutazione umana piuttosto che limitarsi ad automatizzare il processo decisionale.
Infine, un tema ricorrente è stato il ruolo fondamentale del feedback sui risultati e del monitoraggio continuo nel perfezionare sia i sistemi di IA che i processi decisionali umani. I partecipanti allo studio hanno espresso la necessità di meccanismi di feedback che consentano loro di valutare l’accuratezza e l’equità delle decisioni assistite dall’IA nel tempo. Un desiderio ricorrente, sia per il professionista del settore che per gli esperti di equità nell’IA che sono stati consultati, era l’accessibilità di un “sistema di test e audit” accessibile a tutte le parti e in cui si potessero ottenere nuovi apprendimenti dei sistemi e del processo decisionale. Tali sistemi che “forniscono un resoconto chiaro” di ciò che è stato visto e di come lo consentiranno a tutti di impegnarsi in modo più equo costruendo quel “coinvolgimento comunitario” che aiuterebbe ulteriormente creando processi per migliorare il risultato a lungo termine del sistema in uso. Questo focus sull’apprendimento continuo evidenzia la necessità di sistemi di supervisione dell’IA in grado di adattarsi ai mutevoli contesti sociali e di facilitare il perfezionamento collaborativo incorporando i giudizi umani. Gli esperti hanno proposto interventi a livello di formazione e operativo dello sviluppo dell’IA, per considerare dati più sfumati e contestuali rispetto a set di dati più generici e potenzialmente distorti o discriminatori.
In che modo i risultati delle interviste individuali influenzano le domande di ricerca?
Le interviste individuali hanno fornito preziose informazioni sulle priorità e sui pregiudizi che i professionisti considerano quando prendono decisioni, sia in relazione all’equità che a considerazioni pragmatiche. Un elemento chiave è stata la consapevolezza che i partecipanti spesso contestualizzano le loro decisioni in base alla loro esperienza personale e agli obiettivi strategici delle loro aziende. Alcuni hanno ammesso di accettare raccomandazioni discriminatorie da sistemi di IA se in linea con gli obiettivi organizzativi, evidenziando così una tensione tra principi etici e esigenze pratiche. Inoltre, i partecipanti hanno espresso una preferenza per il supporto decisionale dell’IA quando i compiti erano meno complessi, come l’elaborazione dei dati, e hanno espresso esitazione nel giudicare caratteristiche umane sfumate. È stata sottolineata la necessità di spiegabilità e trasparenza, poiché i partecipanti hanno richiesto approfondimenti sul ragionamento dell’IA per sentirsi rassicurati in merito all’equità.
Le interviste hanno fatto luce sui fattori che guidano la volontà dei professionisti di utilizzare il supporto dell’IA, affrontando in definitiva una domanda di ricerca chiave. L’apertura dei partecipanti alle decisioni assistite dall’IA dipendeva da diversi fattori, tra cui la percepita complessità del compito, i potenziali rischi di affidarsi all’IA e la loro capacità di giustificare e spiegare le raccomandazioni dell’IA. Le interviste hanno anche rivelato opinioni sfumate sull’utilità dell’IA, con alcuni partecipanti che la considerano uno strumento indispensabile di lavoro ed efficienza. Viceversa, è stato spiegato che molti strumenti di IA sono troppo immaturi per alcune responsabilità, e questo punto di vista è stato sottolineato quando si spiegava la capacità degli strumenti di IA di valutare le qualità umane e di interrelare l’importanza di varie qualità nel prendere decisioni informate.
In definitiva, i risultati delle interviste individuali hanno fortemente suggerito la necessità di valutare e affrontare i pregiudizi che non sono contenuti solo all’interno del sistema di IA. L’attenzione dovrebbe concentrarsi anche su quali processi e pregiudizi esterni esistono in altri membri del processo decisionale, inclusi quelli sociali, umani o istituzionali. Questo ha informato quali tipi di dati dovrebbero essere raccolti nei focus group e quali argomenti richiedono un’ulteriore valutazione dettagliata da parte di team esterni che lavorano nello sviluppo di un’IA etica ed equa, come il workshop interdisciplinare sulla giustizia dell’IA. Le intuizioni ricavate dalle interviste individuali hanno permesso ai ricercatori di spostare la loro attenzione al di fuori della scatola nera dell’IA e di capire che una maggiore comprensione e riflessione umana influenzerebbero il supporto decisionale etico ed equo.
Quali intuizioni sono state ricavate dai workshop con i professionisti?
La ricerca qualitativa che ha previsto workshop con professionisti che hanno partecipato all’esperimento sull’interazione uomo-IA ha rivelato intuizioni chiave sulla complessità dell’equità algoritmica e della supervisione umana. I partecipanti hanno sottolineato l’importanza critica di contestualizzare l’uso dell’IA all’interno dei loro specifici scenari professionali. Inoltre, hanno enfatizzato la necessità di un’IA spiegabile, desiderando trasparenza nella logica degli algoritmi e su come sono state prese le decisioni. Questa spiegabilità, hanno sostenuto, promuoverebbe una maggiore fiducia nel sistema di IA e consentirebbe un processo decisionale più informato. Tuttavia, i partecipanti hanno notato una tensione tra le raccomandazioni algoritmiche e il loro giudizio professionale, spesso valutando la loro capacità di valutare attributi sfumati e specifici per la situazione che l’IA potrebbe avere difficoltà a catturare.
Un’altra intuizione significativa derivata dai workshop è stata la nozione di equità che va oltre la semplice non discriminazione. Gli esperti hanno evidenziato che, sebbene raggiungere l’equità nell’IA richieda un approccio multidisciplinare, che coinvolga considerazioni sia sociali che tecniche, l’equità è sia un processo sistemico che dinamico, ed è più contestuale. Costruire un’equità collaborativa, secondo i partecipanti, richiede consapevolezza di quando il sistema sta fallendo e quando gli umani stanno fallendo per il sistema. Inoltre, i partecipanti hanno sottolineato l’importanza di riconoscere e affrontare i propri pregiudizi impliciti, nonché il potenziale per i pregiudizi organizzativi di influenzare i processi decisionali. I partecipanti hanno espresso la necessità di linee guida chiare su quando ignorare le raccomandazioni dell’IA e di meccanismi per rivedere e monitorare le decisioni di ignorare, il che aiuta a mitigare i pregiudizi involontari e a promuovere risultati più equi poiché sono guidati ad allineare le proprie scelte con i valori organizzativi e gli obiettivi a lungo termine. I workshop hanno confermato il valore attribuito alle decisioni individuali quando il contesto è più dettagliato, pur riconoscendo che si potrebbe fare affidamento se i risultati vengono convalidati o se le organizzazioni hanno dei limiti.
Quali prospettive e conclusioni sono state stabilite dal workshop degli esperti?
Il workshop degli esperti ha riunito un gruppo multidisciplinare per affrontare i pregiudizi nel processo decisionale umano supportato dall’intelligenza artificiale, concentrandosi su scenari come l’assunzione e i prestiti. Fondamentalmente, il workshop ha identificato la definizione di equità come un processo dinamico che richiede pratica ed esercizio continui, piuttosto che un concetto statico. Questa prospettiva ha sottolineato la necessità di incorporare l’equità durante l’intero ciclo di vita dello sviluppo del sistema di intelligenza artificiale, dalla raccolta iniziale dei dati all’implementazione continua. Gli esperti hanno sottolineato la necessità di considerare l’equità in modo dinamico e iterativo in relazione ai risultati del mondo reale, anche in seguito all’intervento di una persona con supervisione umana (“in the loop”). Le discussioni hanno messo in discussione l’efficacia della sola esclusione delle caratteristiche protette dai set di dati per garantire l’equità, con gli esperti che hanno osservato che questo, di per sé, non la garantirà. Questo perché isolare le caratteristiche per l’analisi potrebbe anche portare a interpretazioni errate o alla completa perdita di contesto.
Il workshop ha inoltre esplorato l’operativizzazione dell’equità nella collaborazione uomo-IA, evidenziando la trasparenza reciproca come principio centrale. Gli esperti hanno proposto meccanismi per il controllo standardizzato e cicli di feedback per promuovere la supervisione etica e normativa. Gli esperti hanno immaginato un futuro in cui l’IA potrebbe essere incorporata come parte di cicli di apprendimento dinamici, o anche contribuire positivamente a un modello ibrido uomo e IA sul posto di lavoro o nell’ambiente dei prestiti. Il processo potrebbe coinvolgere un team che esegue e ripete i test. Ad esempio, l’IA potrebbe far parte di un team che esamina sia gli aspetti tecnici che sociali del progetto e può identificare eventuali problemi. Gli esperti hanno anche spinto per fornire un’analisi significativa e trasparenza nei confronti dei candidati che si presentano a un essere umano con supervisione, nonché il processo che sta dietro le decisioni di supervisione umana. Più specificamente, un tema chiave sollevato costantemente è stata l’importanza di promuovere “l’alfabetizzazione etica dell’IA” sia tra i progettisti che tra gli utenti per garantire uno sviluppo responsabile del sistema di IA.
Gli esperti hanno sottolineato il significato del coinvolgimento della comunità e della responsabilità condivisa nella governance dell’IA, sostenendo forme collettive di supervisione umana. Le discussioni hanno enfatizzato la necessità di dare priorità ai bisogni della comunità rispetto alle pure capacità tecniche, costruendo nuovi immaginari per supportare meglio e collegare più strettamente la tecnologia e le esigenze della comunità. Da un punto di vista politico, gli esperti hanno esortato l’UE a dare priorità ai valori e all’etica nello sviluppo dell’IA e a investire nella costruzione della fiducia che circonda la tecnologia, contribuendo in ultima analisi a garantire che l’IA si allinei con gli obiettivi strategici generali. I partecipanti al workshop hanno anche notato che il ruolo del feedback derivante dalle decisioni degli utenti finali e dalle decisioni e dai suggerimenti guidati dall’IA in un ecosistema più ampio può anche aiutare a condurre ricercatori e sviluppatori a una comprensione a livello di sistema di questioni complesse.
Quali sono i principali punti di discussione e le raccomandazioni politiche derivanti dall’integrazione dei risultati della ricerca?
L’integrazione dei risultati di esperimenti quantitativi e interviste qualitative, combinata con workshop di esperti e policymaker, evidenzia diversi punti di discussione cruciali e informa specifiche raccomandazioni politiche in merito alla supervisione umana del processo decisionale supportato dall’IA. Un tema chiave e generale è la necessità di superare una visione semplicistica della supervisione umana come meccanismo correttivo automatico per i pregiudizi dell’IA. La ricerca sottolinea che i pregiudizi umani e le norme organizzative possono influenzare in modo significativo e persino esacerbare i risultati discriminatori all’interno dei sistemi assistiti dall’IA. I punti di discussione si concentrano sulla complessità di bilanciare l’efficienza algoritmica con le considerazioni etiche, in particolare per quanto riguarda l’equità e la trasparenza in processi decisionali spesso opachi. Lo studio rivela anche l’importanza del contesto e i limiti di un approccio unico alla supervisione dell’IA, sottolineando la necessità di incorporare diverse prospettive e affrontare potenziali problemi sistemici insieme agli aspetti tecnici.
Sulla base di questi punti di discussione, emergono diverse raccomandazioni politiche per migliorare l’efficacia della supervisione umana. È necessario non solo mitigare i pregiudizi dell’IA, ma anche implementare meccanismi solidi per il monitoraggio e la revisione delle decisioni umane che sostituiscono le raccomandazioni dell’IA. Ciò richiederebbe investimenti in strumenti di rilevamento dei pregiudizi e programmi di formazione per aumentare la consapevolezza e la conoscenza dei pregiudizi decisionali umani. La trasparenza deve essere un elemento chiave, consentendo alle parti interessate di ottenere informazioni su come vengono prese le decisioni finali. Inoltre, i quadri di governance dell’IA dovrebbero considerare l’inclusione di cicli di feedback continui che consentano ai decisori di adeguare gli algoritmi di IA in base alle prestazioni del mondo reale, nel rispetto delle linee guida etiche. Queste raccomandazioni mirano collettivamente a creare un sistema di supervisione dell’IA più olistico, consapevole del contesto e adattivo che promuova l’equità.
Approfondimenti Azionabili per la Regolamentazione
Per rendere le politiche più efficaci, è importante esaminare come i pregiudizi umani e la cultura organizzativa potrebbero influire sull’equità dei sistemi di IA. I responsabili politici dovrebbero prendere in considerazione regolamenti e linee guida che spingano le organizzazioni a controllare la loro cultura e le loro norme e ad adottare misure che garantiscano che i sistemi di IA e i loro supervisori umani non rafforzino le disuguaglianze esistenti. Inoltre, le politiche dovrebbero incoraggiare gli sviluppatori di IA a fornire strumenti che consentano la trasparenza e giustifichino le spiegazioni per il processo decisionale dell’IA alle persone interessate, nonché a fornire il contesto relativo ai dati e al processo decisionale del sistema di IA. Dovrebbe essere possibile creare politiche che incoraggino l’innovazione e, allo stesso tempo, abbiano salvaguardie per garantire che i sistemi di IA supportino l’equità e proteggano i diritti individuali.