La governance dell’IA: Regole e pratiche per un futuro sostenibile

Il Ministero degli Algoritmi: Quando i Data Scientist Guidano la Politica

Recentemente, di fronte a un pubblico catturato a Singapore, due uomini hanno avuto una conversazione che potrebbe rimodellare il pensiero globale sulla regolamentazione dell’IA. Uno rappresenta il lato dei fornitori: Thomas Roehm, vicepresidente del marketing aziendale di SAS, armato di decenni di esperienza nell’analisi e storie di guerra da implementazioni in aziende Fortune 500. L’altro ha riflettuto sul dilemma dei regolatori: Frankie Phua, direttore generale e responsabile della gestione del rischio di gruppo presso United Overseas Bank, che si confronta con una domanda fondamentale che tiene svegli i leader dei dati: come governare un’IA che evolve più velocemente delle regole destinate a contenerla?

La loro conversazione, tenutasi durante il SAS Innovate On Tour a Singapore, faceva parte di una discussione più ampia sul Project MindForge, che offre uno sguardo raro su come viene costruita una regolamentazione basata sui dati, evidenziando l’intersezione caotica tra la realtà aziendale e la necessità normativa.

Dai principi alla pratica: Il framework normativo basato sui dati

Il Project MindForge è guidato dall’Iniziativa Veritas, un’iniziativa della Monetary Authority of Singapore (MAS) che ha esaminato i rischi e le opportunità della tecnologia IA per il settore dei servizi finanziari. Ma le sue origini risalgono a un approccio metodico di Singapore alla governance dell’IA, iniziato nel 2019 come parte della Strategia Nazionale per l’IA di Singapore.

“Devo dire che sono molto orgoglioso di essere un Singaporeano che lavora nell’industria bancaria di Singapore”, ha dichiarato Phua al pubblico di Singapore. “Perché dico questo? Perché, nel periodo passato, iniziato nel 2019, la MAS ha coinvolto l’industria bancaria per iniziare il percorso dell’IA.”

La Monetary Authority of Singapore ha iniziato con qualcosa di rivoluzionario: Phua sovrintende a varie funzioni di gestione del rischio, comprese il rischio di credito, il rischio di mercato, il rischio operativo, il rischio tecnologico e il rischio ESG/clima. Ha oltre 30 anni di esperienza, rendendolo esattamente il tipo di professionista che i regolatori devono coinvolgere fin dall’inizio.

Il viaggio è iniziato con i principi FEAT, che stanno per Equità, Etica, Responsabilità e Trasparenza. “Fondamentalmente, è molto importante parlare di governance dell’IA per avere prima un principio dell’IA”, ha spiegato Phua, “perché quando guardiamo a qualsiasi governance, deve essere misurata rispetto a determinati principi.”

Tuttavia, i principi senza operativizzazione sono solo filosofia. Il Project Veritas ha tentato di tradurre quei quattro principi in framework azionabili. “Quali sono i compiti da svolgere per l’equità? Quali sono i test da fare per la trasparenza, per la sostenibilità?” ha detto Phua, condividendo le domande che il progetto esaminava. “Certo, è diventato un processo più impegnativo.”

Agilità normativa nell’era del GenAI

“Nel 2022, è arrivato ChatGPT. Abbiamo iniziato a parlare di GenAI”, ha ricordato Phua. Improvvisamente, i framework accuratamente costruiti per l’IA tradizionale sembravano obsoleti. L’industria ha lanciato il consorzio MindForge, che mira a esaminare i rischi e le opportunità della GenAI nel settore dei servizi finanziari.

Questo approccio innovativo al rischio distingue MindForge da tipiche iniziative normative. Invece che funzionari governativi scrivessero regole, Singapore ha creato ciò che Phua chiama un “approccio ecosistemico“: professionisti di banche, assicurazioni e aziende tecnologiche che collaborano per scrivere il manuale per se stessi.

“La MAS lascia alle istituzioni finanziarie di Singapore il compito di scrivere questo manuale per l’industria, in modo che ci permettano di governare l’IA in modo pratico, piuttosto che imporre linee guida che devono adottare le banche.”

Il paradigma della governance come codice

Roehm, responsabile del marketing aziendale di SAS, aggiunge un contesto cruciale su perché questo sia importante oltre i confini di Singapore. Durante la sua presentazione, che ha preparato il terreno per la discussione, Roehm ha delineato le decisioni dell’IA già incorporate in vari settori: “Oggi, aiutiamo le banche a prevedere e prevenire le frodi mentre analizziamo miliardi di transazioni in tutto il mondo,” ha spiegato. “Stiamo collaborando con hotel, aiutandoli a gestire una varietà di dati per prevedere la domanda, gestire le scorte e prezzi dinamici delle camere.”

Queste non sono applicazioni future, ma una realtà attuale. La sfida normativa non è prepararsi per l’adozione dell’IA; è governare un’IA che già prende decisioni significative — e questo è un punto cruciale.

Gli esempi di Roehm illustrano le scommesse: “Nel settore pubblico, SAS sta collaborando con agenzie locali e federali per migliorare le vite… fornendo soluzioni che aiutano a identificare i bambini a rischio per i lavoratori sociali, o soluzioni per città intelligenti che aiutano a prevedere e mitigare il rischio di alluvioni.”

Quando i sistemi di IA prendono decisioni riguardanti il benessere dei bambini e la prevenzione delle inondazioni, il lusso di una regolazione lenta e basata sul consenso svanisce.

La sfida della tassonomia: Definire l’IA per la conformità normativa

Uno dei momenti più rivelatori della conversazione è stato quando Phua ha affrontato quello che considera la più grande sfida nella governance dell’IA: “Come definisci l’IA? Infatti, nel Project MindForge, abbiamo avuto molti dibattiti su cosa sia l’IA.”

Questa non è una sottigliezza accademica. “Perché stai cercando di governare l’IA, devi sapere cos’è l’IA”, ha sottolineato Phua. Per i modelli tradizionali, l’identificazione era semplice: se hai costruito un modello, sapevi di avere un’IA da governare. Ma l’IA moderna presenta scenari più complessi.

Phua ha spiegato come l’IA incorporata nel fornitore con i set di soluzioni possa introdurre lacune di governance. “Alcuni fornitori, a metà strada, introdurranno un po’ di IA — dal punto di vista della governance dell’IA, dobbiamo avere un processo per poter identificare [questo] in modo da poterlo governare.”

Questa sfida definitoria evidenzia perché l’approccio collaborativo di Singapore sia importante. I regolatori che scrivono regole in isolamento potrebbero perdere queste complessità pratiche che i professionisti affrontano quotidianamente.

Gestione dei dati e governance cognitiva

Entrambi i relatori hanno affrontato una preoccupazione che affligge molti leader dei dati: se i sistemi di IA possano erodere le capacità cognitive umane. “Anche senza IA, molti di noi non penseranno perché siamo pigri,” ha osservato Phua con caratteristica schiettezza. “È per questo che le persone cadono vittime di truffe.”

Tuttavia, la sua esperienza con GenAI suggerisce una dinamica diversa: “Recentemente stavo facendo la fila per il cibo… Quindi ho usato ChatGPT. In quel momento, ero interessato a stablecoin… Ho fatto la prima domanda e mi ha dato la risposta. Non mi piaceva. Ho chiesto di nuovo. Ho sfidato. Continuavo a chiedere. Alla fine, ho ottenuto una risposta molto buona.”

L’insight chiave: “Con ChatGPT, con GenAI, se sappiamo pensare criticamente, se sappiamo fare la giusta domanda tutto il tempo, in realtà diventa uno strumento molto potente.”

Questa prospettiva ristruttura la sfida della governance. Piuttosto che proteggere gli esseri umani dall’IA, una governance efficace potrebbe concentrarsi sul miglioramento della collaborazione tra umani e IA.

Architettura normativa federata: Scalare il modello di Singapore

La Fase 2 di Mind Forge sta producendo risultati tangibili. “Questo manuale che pubblicheremo presto, perché penso che abbiamo terminato la bozza,” ha rivelato Phua. Il manuale fornirà “indicazioni molto pratiche” che affrontano 44 rischi IA identificati con strategie specifiche di mitigazione.

Più importante, l’approccio di Singapore offre un modello per altre giurisdizioni. Invece di aspettare una comprensione perfetta prima di agire, stanno costruendo un’infrastruttura di governance in modo iterativo, con un profondo coinvolgimento dei professionisti.

“Non stiamo convalidando il modello GenAI stesso,” ha spiegato Phua riguardo al loro approccio all’IA generativa. “Stiamo applicando il modello GenAI… ai casi d’uso che vogliamo utilizzare. Quindi, quando parliamo di convalida IA, stiamo parlando di convalidare il caso d’uso.”

Questa distinzione tra convalidare modelli e convalidare applicazioni rappresenta un pensiero critico sulla governance in un’era di modelli fondamentali.

Poiché i leader dei dati in tutto il mondo affrontano sfide simili, il progetto MindForge di Singapore offre più di semplici prescrizioni politiche.

La conversazione tra Roehm e Phua suggerisce che stiamo assistendo all’emergere di un nuovo paradigma normativo, uno in cui il ritmo del cambiamento tecnologico richiede approcci collaborativi e iterativi alla governance. Dimostra che una governance efficace dell’IA emerge dall’intersezione tra visione normativa e competenza pratica, dove i dati non solo informano le regole ma aiutano a scriverle.

Se altre giurisdizioni potranno adattare il modello di Singapore rimane una domanda aperta. E sarà probabilmente una delle principali questioni che determineranno se l’approccio della nazione insulare possa stabilire un quadro più regionale che interfacci bene con altre agende nazionali.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...