Singapore: Rafforzare la Protezione dei Dati e la Governance dell’IA
Singapore sta rispondendo in modo proattivo alle sfide in evoluzione poste dall’uso dei dati nell’era dell’intelligenza artificiale (IA). Questo è stato evidenziato nel discorso di apertura del Ministro per le Comunicazioni e l’Informazione durante la Settimana della Protezione dei Dati 2025.
Con oltre 1.500 partecipanti e molti altri che partecipano durante la settimana, l’evento sottolinea l’importanza crescente della protezione dei dati in un paesaggio tecnologico e globale in rapida evoluzione. Il tema di quest’anno, “Protezione dei Dati in un Mondo in Cambiamento”, riflette la necessità pressante di adattare non solo leggi e pratiche ma anche norme sociali più ampie.
Il Ruolo dei Dati nello Sviluppo dell’IA
Il Ministro ha evidenziato come i dati alimentano l’intero ciclo di sviluppo dell’IA, dalla pre-formazione alla messa a punto, al test e alla validazione. Applicazioni specifiche come AskMax, il chatbot dell’Aeroporto di Changi, e GPT-Legal, perfezionato utilizzando il database di LawNet, illustrano la dipendenza dell’IA da set di dati specifici di alta qualità.
Le Sfide dei Dati e dell’IA
Tuttavia, i dati sono diventati anche una costrizione. I dati di internet utilizzati nella formazione sono spesso irregolari e possono includere contenuti pregiudizievoli o tossici. Una sfida regionale di red-teaming ha rivelato stereotipi preoccupanti generati da un modello di linguaggio, sottolineando i rischi dei dati di addestramento non filtrati.
Con gli sviluppatori che esauriscono i set di dati pubblici, l’attenzione si sta spostando su fonti più sensibili, comprese le partnership private con università, aziende e governi, il che solleva nuove preoccupazioni sulla privacy.
Applicazioni dell’IA e Sicurezza
Le applicazioni dell’IA possono anche presentare sfide quando vengono implementate. Un test ha rilevato che un chatbot utilizzato da un produttore high-tech ha rivelato tassi di commissione di vendita backend quando sollecitato in mandarino. Questo esempio, scoperto da Vulcan, illustra l’importanza di misure di sicurezza robuste e del testing pre-rilascio.
Misure di protezione come prompt di sistema, generazione aumentata da recupero (RAG) e filtri dei dati sono comunemente utilizzati per affrontare problemi di affidabilità, pregiudizio e privacy. Tuttavia, fallimenti inaspettati evidenziano la necessità di test indipendenti. Come sottolineato dal Ministro, garantire che le applicazioni di IA generativa funzionino come previsto è cruciale per la fiducia e l’adozione.
Sandbox per Tecnologie che Migliorano la Privacy
Il Sandbox per Tecnologie che Migliorano la Privacy (PETs) di Singapore offre uno spazio sicuro per la sperimentazione. Ad esempio, la società finanziaria Ant International ha addestrato un modello con un partner di portafoglio digitale utilizzando set di dati separati, migliorando il targeting dei voucher e il coinvolgimento senza compromettere la privacy dei clienti.
I dati sintetici mostrano anche promesse. La Guida del PDPC sulla Generazione di Dati Sintetici delinea le migliori pratiche e aziende locali come Betterdata stanno aiutando gli sviluppatori ad aumentare i set di dati di addestramento proteggendo le informazioni sensibili.
Promuovere l’Adozione delle Tecnologie di Privacy
Per supportare una più ampia adozione, l’IMDA introdurrà una Guida all’Adozione delle PETs per i leader C-suite, aiutando le aziende a scegliere e implementare tecnologie di privacy adeguate. Il Summit delle PETs torna quest’anno per approfondire la collaborazione intersettoriale tra regolatori, fornitori tecnologici e adottanti.
Assicurazione dell’IA e Standardizzazione
Singapore sta anche avanzando nell’assicurazione dell’IA. Il progetto pilota di Assicurazione Globale dell’IA e un nuovo Sandbox di Assicurazione dell’IA mirano a sviluppare metodi di test standardizzati per gestire rischi come contenuti tossici e perdite di dati. L’Starter Kit dell’IMDA offre strumenti pratici che vanno oltre i quadri di alto livello.
Esempi includono l’Ospedale Generale di Changi, che ha testato uno strumento di riassunto per la sicurezza clinica, e NCS, che ha verificato l’allineamento del suo assistente di codifica con standard interni e normativi. Questi sforzi illustrano l’impegno di Singapore a costruire un ecosistema di IA robusto che protegga gli utenti e incoraggi l’innovazione responsabile.
Standard Nazionale per la Protezione dei Dati
Il Data Protection Trustmark è stato ora elevato a Singapore Standard 714, stabilendo un benchmark nazionale per le organizzazioni che dimostrano pratiche di protezione dei dati solide. Questo nuovo standard assicura ai consumatori che le aziende certificate adottano misure di governance dei dati di livello mondiale. Consente inoltre alle aziende di guadagnare un vantaggio competitivo mostrando il loro impegno per un uso responsabile dei dati e la conformità alla privacy.
Concludendo, Singapore esorta alla responsabilità collettiva lungo il ciclo di vita dell’IA e riafferma il suo impegno a consentire un’innovazione responsabile, promuovendo al contempo la fiducia pubblica nella governance dei dati e dell’IA.
Affrontando queste sfide in modo collaborativo, Singapore punta a diventare un leader nell’adozione fidata ed efficace dell’IA in tutti i settori. L’approccio equilibrato della nazione di incoraggiare l’innovazione garantendo al contempo sicurezza e responsabilità potrebbe servire da modello globale per la governance dell’IA e dei dati.