Il Ministero degli Algoritmi: Quando i Data Scientist Guidano la Politica
Recentemente, di fronte a un pubblico catturato a Singapore, due uomini hanno avuto una conversazione che potrebbe rimodellare il pensiero globale sulla regolamentazione dell’IA. Uno rappresenta il lato dei fornitori: Thomas Roehm, vicepresidente del marketing aziendale di SAS, armato di decenni di esperienza nell’analisi e storie di guerra da implementazioni in aziende Fortune 500. L’altro ha riflettuto sul dilemma dei regolatori: Frankie Phua, direttore generale e responsabile della gestione del rischio di gruppo presso United Overseas Bank, che si confronta con una domanda fondamentale che tiene svegli i leader dei dati: come governare un’IA che evolve più velocemente delle regole destinate a contenerla?
La loro conversazione, tenutasi durante il SAS Innovate On Tour a Singapore, faceva parte di una discussione più ampia sul Project MindForge, che offre uno sguardo raro su come viene costruita una regolamentazione basata sui dati, evidenziando l’intersezione caotica tra la realtà aziendale e la necessità normativa.
Dai principi alla pratica: Il framework normativo basato sui dati
Il Project MindForge è guidato dall’Iniziativa Veritas, un’iniziativa della Monetary Authority of Singapore (MAS) che ha esaminato i rischi e le opportunità della tecnologia IA per il settore dei servizi finanziari. Ma le sue origini risalgono a un approccio metodico di Singapore alla governance dell’IA, iniziato nel 2019 come parte della Strategia Nazionale per l’IA di Singapore.
“Devo dire che sono molto orgoglioso di essere un Singaporeano che lavora nell’industria bancaria di Singapore”, ha dichiarato Phua al pubblico di Singapore. “Perché dico questo? Perché, nel periodo passato, iniziato nel 2019, la MAS ha coinvolto l’industria bancaria per iniziare il percorso dell’IA.”
La Monetary Authority of Singapore ha iniziato con qualcosa di rivoluzionario: Phua sovrintende a varie funzioni di gestione del rischio, comprese il rischio di credito, il rischio di mercato, il rischio operativo, il rischio tecnologico e il rischio ESG/clima. Ha oltre 30 anni di esperienza, rendendolo esattamente il tipo di professionista che i regolatori devono coinvolgere fin dall’inizio.
Il viaggio è iniziato con i principi FEAT, che stanno per Equità, Etica, Responsabilità e Trasparenza. “Fondamentalmente, è molto importante parlare di governance dell’IA per avere prima un principio dell’IA”, ha spiegato Phua, “perché quando guardiamo a qualsiasi governance, deve essere misurata rispetto a determinati principi.”
Tuttavia, i principi senza operativizzazione sono solo filosofia. Il Project Veritas ha tentato di tradurre quei quattro principi in framework azionabili. “Quali sono i compiti da svolgere per l’equità? Quali sono i test da fare per la trasparenza, per la sostenibilità?” ha detto Phua, condividendo le domande che il progetto esaminava. “Certo, è diventato un processo più impegnativo.”
Agilità normativa nell’era del GenAI
“Nel 2022, è arrivato ChatGPT. Abbiamo iniziato a parlare di GenAI”, ha ricordato Phua. Improvvisamente, i framework accuratamente costruiti per l’IA tradizionale sembravano obsoleti. L’industria ha lanciato il consorzio MindForge, che mira a esaminare i rischi e le opportunità della GenAI nel settore dei servizi finanziari.
Questo approccio innovativo al rischio distingue MindForge da tipiche iniziative normative. Invece che funzionari governativi scrivessero regole, Singapore ha creato ciò che Phua chiama un “approccio ecosistemico“: professionisti di banche, assicurazioni e aziende tecnologiche che collaborano per scrivere il manuale per se stessi.
“La MAS lascia alle istituzioni finanziarie di Singapore il compito di scrivere questo manuale per l’industria, in modo che ci permettano di governare l’IA in modo pratico, piuttosto che imporre linee guida che devono adottare le banche.”
Il paradigma della governance come codice
Roehm, responsabile del marketing aziendale di SAS, aggiunge un contesto cruciale su perché questo sia importante oltre i confini di Singapore. Durante la sua presentazione, che ha preparato il terreno per la discussione, Roehm ha delineato le decisioni dell’IA già incorporate in vari settori: “Oggi, aiutiamo le banche a prevedere e prevenire le frodi mentre analizziamo miliardi di transazioni in tutto il mondo,” ha spiegato. “Stiamo collaborando con hotel, aiutandoli a gestire una varietà di dati per prevedere la domanda, gestire le scorte e prezzi dinamici delle camere.”
Queste non sono applicazioni future, ma una realtà attuale. La sfida normativa non è prepararsi per l’adozione dell’IA; è governare un’IA che già prende decisioni significative — e questo è un punto cruciale.
Gli esempi di Roehm illustrano le scommesse: “Nel settore pubblico, SAS sta collaborando con agenzie locali e federali per migliorare le vite… fornendo soluzioni che aiutano a identificare i bambini a rischio per i lavoratori sociali, o soluzioni per città intelligenti che aiutano a prevedere e mitigare il rischio di alluvioni.”
Quando i sistemi di IA prendono decisioni riguardanti il benessere dei bambini e la prevenzione delle inondazioni, il lusso di una regolazione lenta e basata sul consenso svanisce.
La sfida della tassonomia: Definire l’IA per la conformità normativa
Uno dei momenti più rivelatori della conversazione è stato quando Phua ha affrontato quello che considera la più grande sfida nella governance dell’IA: “Come definisci l’IA? Infatti, nel Project MindForge, abbiamo avuto molti dibattiti su cosa sia l’IA.”
Questa non è una sottigliezza accademica. “Perché stai cercando di governare l’IA, devi sapere cos’è l’IA”, ha sottolineato Phua. Per i modelli tradizionali, l’identificazione era semplice: se hai costruito un modello, sapevi di avere un’IA da governare. Ma l’IA moderna presenta scenari più complessi.
Phua ha spiegato come l’IA incorporata nel fornitore con i set di soluzioni possa introdurre lacune di governance. “Alcuni fornitori, a metà strada, introdurranno un po’ di IA — dal punto di vista della governance dell’IA, dobbiamo avere un processo per poter identificare [questo] in modo da poterlo governare.”
Questa sfida definitoria evidenzia perché l’approccio collaborativo di Singapore sia importante. I regolatori che scrivono regole in isolamento potrebbero perdere queste complessità pratiche che i professionisti affrontano quotidianamente.
Gestione dei dati e governance cognitiva
Entrambi i relatori hanno affrontato una preoccupazione che affligge molti leader dei dati: se i sistemi di IA possano erodere le capacità cognitive umane. “Anche senza IA, molti di noi non penseranno perché siamo pigri,” ha osservato Phua con caratteristica schiettezza. “È per questo che le persone cadono vittime di truffe.”
Tuttavia, la sua esperienza con GenAI suggerisce una dinamica diversa: “Recentemente stavo facendo la fila per il cibo… Quindi ho usato ChatGPT. In quel momento, ero interessato a stablecoin… Ho fatto la prima domanda e mi ha dato la risposta. Non mi piaceva. Ho chiesto di nuovo. Ho sfidato. Continuavo a chiedere. Alla fine, ho ottenuto una risposta molto buona.”
L’insight chiave: “Con ChatGPT, con GenAI, se sappiamo pensare criticamente, se sappiamo fare la giusta domanda tutto il tempo, in realtà diventa uno strumento molto potente.”
Questa prospettiva ristruttura la sfida della governance. Piuttosto che proteggere gli esseri umani dall’IA, una governance efficace potrebbe concentrarsi sul miglioramento della collaborazione tra umani e IA.
Architettura normativa federata: Scalare il modello di Singapore
La Fase 2 di Mind Forge sta producendo risultati tangibili. “Questo manuale che pubblicheremo presto, perché penso che abbiamo terminato la bozza,” ha rivelato Phua. Il manuale fornirà “indicazioni molto pratiche” che affrontano 44 rischi IA identificati con strategie specifiche di mitigazione.
Più importante, l’approccio di Singapore offre un modello per altre giurisdizioni. Invece di aspettare una comprensione perfetta prima di agire, stanno costruendo un’infrastruttura di governance in modo iterativo, con un profondo coinvolgimento dei professionisti.
“Non stiamo convalidando il modello GenAI stesso,” ha spiegato Phua riguardo al loro approccio all’IA generativa. “Stiamo applicando il modello GenAI… ai casi d’uso che vogliamo utilizzare. Quindi, quando parliamo di convalida IA, stiamo parlando di convalidare il caso d’uso.”
Questa distinzione tra convalidare modelli e convalidare applicazioni rappresenta un pensiero critico sulla governance in un’era di modelli fondamentali.
Poiché i leader dei dati in tutto il mondo affrontano sfide simili, il progetto MindForge di Singapore offre più di semplici prescrizioni politiche.
La conversazione tra Roehm e Phua suggerisce che stiamo assistendo all’emergere di un nuovo paradigma normativo, uno in cui il ritmo del cambiamento tecnologico richiede approcci collaborativi e iterativi alla governance. Dimostra che una governance efficace dell’IA emerge dall’intersezione tra visione normativa e competenza pratica, dove i dati non solo informano le regole ma aiutano a scriverle.
Se altre giurisdizioni potranno adattare il modello di Singapore rimane una domanda aperta. E sarà probabilmente una delle principali questioni che determineranno se l’approccio della nazione insulare possa stabilire un quadro più regionale che interfacci bene con altre agende nazionali.