Evita la Frattura tra AI e Governance Aziendale: Una Storia di Avvertimento

La costruzione di un sistema di gestione dell’AI ad alta integrità richiede di affrontare una verità scomoda: la governance che appare robusta sulla carta può comunque collassare catastroficamente quando è disconnessa da una supervisione organizzativa più ampia. Questa realtà è stata messa a nudo da un recente fallimento catastrofico della decisione automatizzata in Australia.

Il sistema Robodebt dell’Australia, implementato nel 2016 dal governo australiano, utilizzava l’abbinamento automatizzato dei dati per accusare centinaia di migliaia di beneficiari di assistenza sociale di frode. Il difetto fondamentale del sistema era semplice ma devastante: mediava il reddito annuale nelle quattordici settimane per identificare presunti sovrapagamenti, ignorando che molti beneficiari avevano redditi variabili che fluttuavano durante l’anno. Persone vulnerabili ricevevano enormi avvisi di debito errati, spesso per decine di migliaia di dollari. Il costo umano è stato enorme. Si stima che lo stress e il trauma abbiano contribuito a almeno tre suicidi noti.

La Critica di Robodebt

“Robodebt era un meccanismo crudo e crudele, né giusto né legale, e ha fatto sentire molte persone come criminali.”

Quello che è più rivelatore riguardo a Robodebt non sono solo i suoi difetti tecnici, ma come un sistema analitico avanzato con apparentemente una governance robusta potesse andare così catastroficamente storto. Il piano aveva controlli tecnici sofisticati, processi di supervisione formali e procedure documentate. Eppure, quando il Tribunale delle Appellazioni Amministrative (un ente di regolamentazione con una funzione di supervisione) iniziò a dichiarare il piano illegale già nel 2016, le loro decisioni non raggiunsero mai adeguatamente i decisori chiave.

Nell’arco di tempo, ci furono 132 decisioni separate del tribunale che trovavano i calcoli di debito del piano legalmente invalidi. Eppure, il sistema continuava a operare per anni dopo, protetto da strutture di governance e burocrazia che esistevano in isolamento dalla supervisione organizzativa più ampia. Questi disconnetti tra controlli tecnici e governance organizzativa permisero ai leader di “raddoppiare” il piano anche quando le prove dei suoi difetti fondamentali aumentavano. La Commissione Reale avrebbe successivamente citato “venalità, incompetenza e viltà” come fattori che sostennero il piano nonostante le chiare evidenze dei suoi fallimenti.

I Rischi Attuali nell’Implementazione dell’AI

Vi è un rischio reale che un simile disconnetto si verifichi all’interno delle numerose organizzazioni che implementano oggi sistemi AI. Un fornitore di cloud potrebbe eseguire straordinarie validazioni del modello e valutazioni tecniche, mentre fallisce nel connetterle in alcun modo ai processi di gestione del rischio aziendale o considerare l’impatto di un uso improprio.

Non credo che la soluzione sia costruire più rigidità e burocrazia o creare un silo di governance dell’AI – piuttosto è intrecciare la governance dell’AI nel tessuto esistente della tua organizzazione.

Integrazione della Governance AI

La governance dell’AI deve iniziare comprendendo come la tua organizzazione gestisce già il rischio, garantisce la qualità e mantiene la conformità. Dove vengono prese le decisioni? Come fluisce l’informazione? Quali processi esistono già per gestire problemi o approvare cambiamenti?

Questi meccanismi di governance esistenti si sono evoluti nel tempo per adattarsi alla cultura e alle necessità della tua organizzazione. Sono le fondamenta su cui devi costruire e evolvere.

Inizierò sempre con un nuovo team o organizzazione cercando punti di connessione naturali dove la governance dell’AI possa inserirsi nei processi esistenti. Se hai un sistema di gestione dei cambiamenti consolidato, dovrai estenderlo per coprire gli aggiornamenti dei modelli AI piuttosto che creare un processo parallelo. Quando hai bisogno di nuovi controlli specifici per l’AI, progettali per completare e connettersi con la governance esistente piuttosto che operare in modo indipendente.

Costruire Ponti verso Pratiche di Governance Esistenti

È importante osservare come fluisce l’informazione tra i diversi team e la leadership aziendale. Questo è il punto in cui la governance spesso si rompe, come abbiamo visto con Robodebt. Le preoccupazioni tecniche hanno bisogno di chiari percorsi per raggiungere i decisori, specialmente quando toccano implicazioni etiche o potenziali danni.

Una volta compresi questi flussi, puoi iniziare a identificare dove la governance dell’AI deve inserirsi. Alcune connessioni saranno ovvie – le valutazioni del rischio AI dovrebbero alimentare la gestione del rischio aziendale, gli incidenti AI dovrebbero attivare i processi di risposta agli incidenti esistenti, i cambiamenti AI dovrebbero passare attraverso la gestione dei cambiamenti.

Raccomando di documentare queste connessioni esplicitamente, mostrando come la governance dell’AI si integra con i processi esistenti. Questa documentazione serve a molteplici scopi: guida l’implementazione, aiuta a formare il personale sui nuovi processi e dimostra agli auditor come il tuo sistema di gestione dell’AI opera come parte della tua più ampia struttura di governance.

Conclusione

Questa mappatura richiede tempo, tipicamente diverse settimane di interviste, revisioni documentali e osservazione all’interno di un’organizzazione di medie o grandi dimensioni. Ma questo investimento ripaga molte volte nel creare una governance che lavora con la tua organizzazione piuttosto che contro di essa. L’obiettivo non è solo comprendere come funzionano le cose ora, ma identificare come la governance dell’AI ad alta integrità possa diventare una parte integrante e sostenibile del tessuto decisionale della tua organizzazione.

More Insights

Legge sull’Intelligenza Artificiale: Un Nuovo Orizzonte per l’Europa

Questo documento fornisce un riepilogo della legge sull'intelligenza artificiale dell'UE, evidenziando le categorie di rischio associate ai sistemi di IA. La legge stabilisce requisiti specifici per i...

Battaglia per la Trasparenza: L’AI Act e i Diritti dei Creatori

L'Unione Europea ha approvato una legge storica sull'IA che richiede alle aziende di informare il pubblico quando un contenuto è generato da IA. Tuttavia, la legge ha suscitato preoccupazioni tra i...

Il pericolo dell’AI-washing nel settore della nutrizione

L'AI-washing è una tattica di marketing ingannevole in cui le aziende esagerano il ruolo dell'AI nella promozione dei loro prodotti o servizi. I consumatori e i regolatori dovrebbero affrontare con...

Leggi e Intelligenza Artificiale: Nuove Frontiere di Regolamentazione

Il 12 luglio 2024, l'UE ha pubblicato ufficialmente il Regolamento (UE) 2024/1689, noto come legge sull'intelligenza artificiale (AI Act), che rappresenta il primo quadro giuridico completo per...

Guardrails AI: Sicurezza e Etica nel Futuro delle Imprese

L'assenza di un quadro normativo globale armonizzato significa che, mentre le aziende potrebbero soddisfare i requisiti di conformità in un paese, potrebbero violarli involontariamente in un altro...

Legge dell’Arkansas: Protezione delle Immagini e Voci AI

L'Arkansas ha adottato una legge per proteggere le immagini e le voci generate dall'IA, nota come HB1071, che richiede il consenso esplicito per l'uso commerciale di tali riproduzioni. Questa legge...

Giganti della tecnologia sfidano l’UE sull’AI Act

L'Atto sull'IA dell'UE è stato elogiato come il più completo insieme di normative sull'intelligenza artificiale nel mondo. Tuttavia, si tratta di principi generali senza dettagli per...

La battaglia per la regolamentazione dell’IA a Hartford

Durante un'udienza pubblica, il presidente dell'AFL-CIO del Connecticut ha sottolineato l'importanza di regolamentare l'intelligenza artificiale per proteggere i lavoratori e i consumatori. La...

Azioni per un’Intelligenza Artificiale Inclusiva

L'ultimo summit sull'IA di Parigi si è concluso con una "Dichiarazione sull'Intelligenza Artificiale Inclusiva e Sostenibile per le Persone e il Pianeta". Le priorità indicate mirano a ridurre i...