La governance dell’IA: Regole e pratiche per un futuro sostenibile

Il Ministero degli Algoritmi: Quando i Data Scientist Guidano la Politica

Recentemente, di fronte a un pubblico catturato a Singapore, due uomini hanno avuto una conversazione che potrebbe rimodellare il pensiero globale sulla regolamentazione dell’IA. Uno rappresenta il lato dei fornitori: Thomas Roehm, vicepresidente del marketing aziendale di SAS, armato di decenni di esperienza nell’analisi e storie di guerra da implementazioni in aziende Fortune 500. L’altro ha riflettuto sul dilemma dei regolatori: Frankie Phua, direttore generale e responsabile della gestione del rischio di gruppo presso United Overseas Bank, che si confronta con una domanda fondamentale che tiene svegli i leader dei dati: come governare un’IA che evolve più velocemente delle regole destinate a contenerla?

La loro conversazione, tenutasi durante il SAS Innovate On Tour a Singapore, faceva parte di una discussione più ampia sul Project MindForge, che offre uno sguardo raro su come viene costruita una regolamentazione basata sui dati, evidenziando l’intersezione caotica tra la realtà aziendale e la necessità normativa.

Dai principi alla pratica: Il framework normativo basato sui dati

Il Project MindForge è guidato dall’Iniziativa Veritas, un’iniziativa della Monetary Authority of Singapore (MAS) che ha esaminato i rischi e le opportunità della tecnologia IA per il settore dei servizi finanziari. Ma le sue origini risalgono a un approccio metodico di Singapore alla governance dell’IA, iniziato nel 2019 come parte della Strategia Nazionale per l’IA di Singapore.

“Devo dire che sono molto orgoglioso di essere un Singaporeano che lavora nell’industria bancaria di Singapore”, ha dichiarato Phua al pubblico di Singapore. “Perché dico questo? Perché, nel periodo passato, iniziato nel 2019, la MAS ha coinvolto l’industria bancaria per iniziare il percorso dell’IA.”

La Monetary Authority of Singapore ha iniziato con qualcosa di rivoluzionario: Phua sovrintende a varie funzioni di gestione del rischio, comprese il rischio di credito, il rischio di mercato, il rischio operativo, il rischio tecnologico e il rischio ESG/clima. Ha oltre 30 anni di esperienza, rendendolo esattamente il tipo di professionista che i regolatori devono coinvolgere fin dall’inizio.

Il viaggio è iniziato con i principi FEAT, che stanno per Equità, Etica, Responsabilità e Trasparenza. “Fondamentalmente, è molto importante parlare di governance dell’IA per avere prima un principio dell’IA”, ha spiegato Phua, “perché quando guardiamo a qualsiasi governance, deve essere misurata rispetto a determinati principi.”

Tuttavia, i principi senza operativizzazione sono solo filosofia. Il Project Veritas ha tentato di tradurre quei quattro principi in framework azionabili. “Quali sono i compiti da svolgere per l’equità? Quali sono i test da fare per la trasparenza, per la sostenibilità?” ha detto Phua, condividendo le domande che il progetto esaminava. “Certo, è diventato un processo più impegnativo.”

Agilità normativa nell’era del GenAI

“Nel 2022, è arrivato ChatGPT. Abbiamo iniziato a parlare di GenAI”, ha ricordato Phua. Improvvisamente, i framework accuratamente costruiti per l’IA tradizionale sembravano obsoleti. L’industria ha lanciato il consorzio MindForge, che mira a esaminare i rischi e le opportunità della GenAI nel settore dei servizi finanziari.

Questo approccio innovativo al rischio distingue MindForge da tipiche iniziative normative. Invece che funzionari governativi scrivessero regole, Singapore ha creato ciò che Phua chiama un “approccio ecosistemico“: professionisti di banche, assicurazioni e aziende tecnologiche che collaborano per scrivere il manuale per se stessi.

“La MAS lascia alle istituzioni finanziarie di Singapore il compito di scrivere questo manuale per l’industria, in modo che ci permettano di governare l’IA in modo pratico, piuttosto che imporre linee guida che devono adottare le banche.”

Il paradigma della governance come codice

Roehm, responsabile del marketing aziendale di SAS, aggiunge un contesto cruciale su perché questo sia importante oltre i confini di Singapore. Durante la sua presentazione, che ha preparato il terreno per la discussione, Roehm ha delineato le decisioni dell’IA già incorporate in vari settori: “Oggi, aiutiamo le banche a prevedere e prevenire le frodi mentre analizziamo miliardi di transazioni in tutto il mondo,” ha spiegato. “Stiamo collaborando con hotel, aiutandoli a gestire una varietà di dati per prevedere la domanda, gestire le scorte e prezzi dinamici delle camere.”

Queste non sono applicazioni future, ma una realtà attuale. La sfida normativa non è prepararsi per l’adozione dell’IA; è governare un’IA che già prende decisioni significative — e questo è un punto cruciale.

Gli esempi di Roehm illustrano le scommesse: “Nel settore pubblico, SAS sta collaborando con agenzie locali e federali per migliorare le vite… fornendo soluzioni che aiutano a identificare i bambini a rischio per i lavoratori sociali, o soluzioni per città intelligenti che aiutano a prevedere e mitigare il rischio di alluvioni.”

Quando i sistemi di IA prendono decisioni riguardanti il benessere dei bambini e la prevenzione delle inondazioni, il lusso di una regolazione lenta e basata sul consenso svanisce.

La sfida della tassonomia: Definire l’IA per la conformità normativa

Uno dei momenti più rivelatori della conversazione è stato quando Phua ha affrontato quello che considera la più grande sfida nella governance dell’IA: “Come definisci l’IA? Infatti, nel Project MindForge, abbiamo avuto molti dibattiti su cosa sia l’IA.”

Questa non è una sottigliezza accademica. “Perché stai cercando di governare l’IA, devi sapere cos’è l’IA”, ha sottolineato Phua. Per i modelli tradizionali, l’identificazione era semplice: se hai costruito un modello, sapevi di avere un’IA da governare. Ma l’IA moderna presenta scenari più complessi.

Phua ha spiegato come l’IA incorporata nel fornitore con i set di soluzioni possa introdurre lacune di governance. “Alcuni fornitori, a metà strada, introdurranno un po’ di IA — dal punto di vista della governance dell’IA, dobbiamo avere un processo per poter identificare [questo] in modo da poterlo governare.”

Questa sfida definitoria evidenzia perché l’approccio collaborativo di Singapore sia importante. I regolatori che scrivono regole in isolamento potrebbero perdere queste complessità pratiche che i professionisti affrontano quotidianamente.

Gestione dei dati e governance cognitiva

Entrambi i relatori hanno affrontato una preoccupazione che affligge molti leader dei dati: se i sistemi di IA possano erodere le capacità cognitive umane. “Anche senza IA, molti di noi non penseranno perché siamo pigri,” ha osservato Phua con caratteristica schiettezza. “È per questo che le persone cadono vittime di truffe.”

Tuttavia, la sua esperienza con GenAI suggerisce una dinamica diversa: “Recentemente stavo facendo la fila per il cibo… Quindi ho usato ChatGPT. In quel momento, ero interessato a stablecoin… Ho fatto la prima domanda e mi ha dato la risposta. Non mi piaceva. Ho chiesto di nuovo. Ho sfidato. Continuavo a chiedere. Alla fine, ho ottenuto una risposta molto buona.”

L’insight chiave: “Con ChatGPT, con GenAI, se sappiamo pensare criticamente, se sappiamo fare la giusta domanda tutto il tempo, in realtà diventa uno strumento molto potente.”

Questa prospettiva ristruttura la sfida della governance. Piuttosto che proteggere gli esseri umani dall’IA, una governance efficace potrebbe concentrarsi sul miglioramento della collaborazione tra umani e IA.

Architettura normativa federata: Scalare il modello di Singapore

La Fase 2 di Mind Forge sta producendo risultati tangibili. “Questo manuale che pubblicheremo presto, perché penso che abbiamo terminato la bozza,” ha rivelato Phua. Il manuale fornirà “indicazioni molto pratiche” che affrontano 44 rischi IA identificati con strategie specifiche di mitigazione.

Più importante, l’approccio di Singapore offre un modello per altre giurisdizioni. Invece di aspettare una comprensione perfetta prima di agire, stanno costruendo un’infrastruttura di governance in modo iterativo, con un profondo coinvolgimento dei professionisti.

“Non stiamo convalidando il modello GenAI stesso,” ha spiegato Phua riguardo al loro approccio all’IA generativa. “Stiamo applicando il modello GenAI… ai casi d’uso che vogliamo utilizzare. Quindi, quando parliamo di convalida IA, stiamo parlando di convalidare il caso d’uso.”

Questa distinzione tra convalidare modelli e convalidare applicazioni rappresenta un pensiero critico sulla governance in un’era di modelli fondamentali.

Poiché i leader dei dati in tutto il mondo affrontano sfide simili, il progetto MindForge di Singapore offre più di semplici prescrizioni politiche.

La conversazione tra Roehm e Phua suggerisce che stiamo assistendo all’emergere di un nuovo paradigma normativo, uno in cui il ritmo del cambiamento tecnologico richiede approcci collaborativi e iterativi alla governance. Dimostra che una governance efficace dell’IA emerge dall’intersezione tra visione normativa e competenza pratica, dove i dati non solo informano le regole ma aiutano a scriverle.

Se altre giurisdizioni potranno adattare il modello di Singapore rimane una domanda aperta. E sarà probabilmente una delle principali questioni che determineranno se l’approccio della nazione insulare possa stabilire un quadro più regionale che interfacci bene con altre agende nazionali.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...