Innovazione Responsabile: Protezione dei Dati e Governance dell’IA a Singapore

Singapore: Rafforzare la Protezione dei Dati e la Governance dell’IA

Singapore sta rispondendo in modo proattivo alle sfide in evoluzione poste dall’uso dei dati nell’era dell’intelligenza artificiale (IA). Questo è stato evidenziato nel discorso di apertura del Ministro per le Comunicazioni e l’Informazione durante la Settimana della Protezione dei Dati 2025.

Con oltre 1.500 partecipanti e molti altri che partecipano durante la settimana, l’evento sottolinea l’importanza crescente della protezione dei dati in un paesaggio tecnologico e globale in rapida evoluzione. Il tema di quest’anno, “Protezione dei Dati in un Mondo in Cambiamento”, riflette la necessità pressante di adattare non solo leggi e pratiche ma anche norme sociali più ampie.

Il Ruolo dei Dati nello Sviluppo dell’IA

Il Ministro ha evidenziato come i dati alimentano l’intero ciclo di sviluppo dell’IA, dalla pre-formazione alla messa a punto, al test e alla validazione. Applicazioni specifiche come AskMax, il chatbot dell’Aeroporto di Changi, e GPT-Legal, perfezionato utilizzando il database di LawNet, illustrano la dipendenza dell’IA da set di dati specifici di alta qualità.

Le Sfide dei Dati e dell’IA

Tuttavia, i dati sono diventati anche una costrizione. I dati di internet utilizzati nella formazione sono spesso irregolari e possono includere contenuti pregiudizievoli o tossici. Una sfida regionale di red-teaming ha rivelato stereotipi preoccupanti generati da un modello di linguaggio, sottolineando i rischi dei dati di addestramento non filtrati.

Con gli sviluppatori che esauriscono i set di dati pubblici, l’attenzione si sta spostando su fonti più sensibili, comprese le partnership private con università, aziende e governi, il che solleva nuove preoccupazioni sulla privacy.

Applicazioni dell’IA e Sicurezza

Le applicazioni dell’IA possono anche presentare sfide quando vengono implementate. Un test ha rilevato che un chatbot utilizzato da un produttore high-tech ha rivelato tassi di commissione di vendita backend quando sollecitato in mandarino. Questo esempio, scoperto da Vulcan, illustra l’importanza di misure di sicurezza robuste e del testing pre-rilascio.

Misure di protezione come prompt di sistema, generazione aumentata da recupero (RAG) e filtri dei dati sono comunemente utilizzati per affrontare problemi di affidabilità, pregiudizio e privacy. Tuttavia, fallimenti inaspettati evidenziano la necessità di test indipendenti. Come sottolineato dal Ministro, garantire che le applicazioni di IA generativa funzionino come previsto è cruciale per la fiducia e l’adozione.

Sandbox per Tecnologie che Migliorano la Privacy

Il Sandbox per Tecnologie che Migliorano la Privacy (PETs) di Singapore offre uno spazio sicuro per la sperimentazione. Ad esempio, la società finanziaria Ant International ha addestrato un modello con un partner di portafoglio digitale utilizzando set di dati separati, migliorando il targeting dei voucher e il coinvolgimento senza compromettere la privacy dei clienti.

I dati sintetici mostrano anche promesse. La Guida del PDPC sulla Generazione di Dati Sintetici delinea le migliori pratiche e aziende locali come Betterdata stanno aiutando gli sviluppatori ad aumentare i set di dati di addestramento proteggendo le informazioni sensibili.

Promuovere l’Adozione delle Tecnologie di Privacy

Per supportare una più ampia adozione, l’IMDA introdurrà una Guida all’Adozione delle PETs per i leader C-suite, aiutando le aziende a scegliere e implementare tecnologie di privacy adeguate. Il Summit delle PETs torna quest’anno per approfondire la collaborazione intersettoriale tra regolatori, fornitori tecnologici e adottanti.

Assicurazione dell’IA e Standardizzazione

Singapore sta anche avanzando nell’assicurazione dell’IA. Il progetto pilota di Assicurazione Globale dell’IA e un nuovo Sandbox di Assicurazione dell’IA mirano a sviluppare metodi di test standardizzati per gestire rischi come contenuti tossici e perdite di dati. L’Starter Kit dell’IMDA offre strumenti pratici che vanno oltre i quadri di alto livello.

Esempi includono l’Ospedale Generale di Changi, che ha testato uno strumento di riassunto per la sicurezza clinica, e NCS, che ha verificato l’allineamento del suo assistente di codifica con standard interni e normativi. Questi sforzi illustrano l’impegno di Singapore a costruire un ecosistema di IA robusto che protegga gli utenti e incoraggi l’innovazione responsabile.

Standard Nazionale per la Protezione dei Dati

Il Data Protection Trustmark è stato ora elevato a Singapore Standard 714, stabilendo un benchmark nazionale per le organizzazioni che dimostrano pratiche di protezione dei dati solide. Questo nuovo standard assicura ai consumatori che le aziende certificate adottano misure di governance dei dati di livello mondiale. Consente inoltre alle aziende di guadagnare un vantaggio competitivo mostrando il loro impegno per un uso responsabile dei dati e la conformità alla privacy.

Concludendo, Singapore esorta alla responsabilità collettiva lungo il ciclo di vita dell’IA e riafferma il suo impegno a consentire un’innovazione responsabile, promuovendo al contempo la fiducia pubblica nella governance dei dati e dell’IA.

Affrontando queste sfide in modo collaborativo, Singapore punta a diventare un leader nell’adozione fidata ed efficace dell’IA in tutti i settori. L’approccio equilibrato della nazione di incoraggiare l’innovazione garantendo al contempo sicurezza e responsabilità potrebbe servire da modello globale per la governance dell’IA e dei dati.

More Insights

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...

Innovazione Responsabile: Protezione dei Dati e Governance dell’IA a Singapore

Singapore sta rispondendo in modo proattivo alle sfide in continua evoluzione poste dall'uso dei dati nell'era dell'intelligenza artificiale (IA). La Ministra per le Comunicazioni e l'Informazione...

Sorveglianza AI e vuoto normativo nell’Asia-Pacifico

L'Asia-Pacifico sta assistendo a un'espansione rapida delle tecnologie di sorveglianza, mentre rimane privo di quadri di governance necessari per regolarne l'uso. La mancanza di normative complete...

Intelligenza Artificiale: Soluzioni Fiscali più Intelligenti

L'intelligenza artificiale (AI) sta trasformando il panorama della conformità fiscale, offrendo soluzioni innovative che semplificano i processi e aumentano l'accuratezza. Grazie all'automazione delle...

Opportunità nascoste nella conformità proattiva all’AI Act dell’UE

L'Atto sull'Intelligenza Artificiale dell'Unione Europea sta per trasformare la governance globale dell'IA, ma i ritardi nella finalizzazione delle linee guida critiche offrono opportunità strategiche...