Innovazione Responsabile: Protezione dei Dati e Governance dell’IA a Singapore

Singapore: Rafforzare la Protezione dei Dati e la Governance dell’IA

Singapore sta rispondendo in modo proattivo alle sfide in evoluzione poste dall’uso dei dati nell’era dell’intelligenza artificiale (IA). Questo è stato evidenziato nel discorso di apertura del Ministro per le Comunicazioni e l’Informazione durante la Settimana della Protezione dei Dati 2025.

Con oltre 1.500 partecipanti e molti altri che partecipano durante la settimana, l’evento sottolinea l’importanza crescente della protezione dei dati in un paesaggio tecnologico e globale in rapida evoluzione. Il tema di quest’anno, “Protezione dei Dati in un Mondo in Cambiamento”, riflette la necessità pressante di adattare non solo leggi e pratiche ma anche norme sociali più ampie.

Il Ruolo dei Dati nello Sviluppo dell’IA

Il Ministro ha evidenziato come i dati alimentano l’intero ciclo di sviluppo dell’IA, dalla pre-formazione alla messa a punto, al test e alla validazione. Applicazioni specifiche come AskMax, il chatbot dell’Aeroporto di Changi, e GPT-Legal, perfezionato utilizzando il database di LawNet, illustrano la dipendenza dell’IA da set di dati specifici di alta qualità.

Le Sfide dei Dati e dell’IA

Tuttavia, i dati sono diventati anche una costrizione. I dati di internet utilizzati nella formazione sono spesso irregolari e possono includere contenuti pregiudizievoli o tossici. Una sfida regionale di red-teaming ha rivelato stereotipi preoccupanti generati da un modello di linguaggio, sottolineando i rischi dei dati di addestramento non filtrati.

Con gli sviluppatori che esauriscono i set di dati pubblici, l’attenzione si sta spostando su fonti più sensibili, comprese le partnership private con università, aziende e governi, il che solleva nuove preoccupazioni sulla privacy.

Applicazioni dell’IA e Sicurezza

Le applicazioni dell’IA possono anche presentare sfide quando vengono implementate. Un test ha rilevato che un chatbot utilizzato da un produttore high-tech ha rivelato tassi di commissione di vendita backend quando sollecitato in mandarino. Questo esempio, scoperto da Vulcan, illustra l’importanza di misure di sicurezza robuste e del testing pre-rilascio.

Misure di protezione come prompt di sistema, generazione aumentata da recupero (RAG) e filtri dei dati sono comunemente utilizzati per affrontare problemi di affidabilità, pregiudizio e privacy. Tuttavia, fallimenti inaspettati evidenziano la necessità di test indipendenti. Come sottolineato dal Ministro, garantire che le applicazioni di IA generativa funzionino come previsto è cruciale per la fiducia e l’adozione.

Sandbox per Tecnologie che Migliorano la Privacy

Il Sandbox per Tecnologie che Migliorano la Privacy (PETs) di Singapore offre uno spazio sicuro per la sperimentazione. Ad esempio, la società finanziaria Ant International ha addestrato un modello con un partner di portafoglio digitale utilizzando set di dati separati, migliorando il targeting dei voucher e il coinvolgimento senza compromettere la privacy dei clienti.

I dati sintetici mostrano anche promesse. La Guida del PDPC sulla Generazione di Dati Sintetici delinea le migliori pratiche e aziende locali come Betterdata stanno aiutando gli sviluppatori ad aumentare i set di dati di addestramento proteggendo le informazioni sensibili.

Promuovere l’Adozione delle Tecnologie di Privacy

Per supportare una più ampia adozione, l’IMDA introdurrà una Guida all’Adozione delle PETs per i leader C-suite, aiutando le aziende a scegliere e implementare tecnologie di privacy adeguate. Il Summit delle PETs torna quest’anno per approfondire la collaborazione intersettoriale tra regolatori, fornitori tecnologici e adottanti.

Assicurazione dell’IA e Standardizzazione

Singapore sta anche avanzando nell’assicurazione dell’IA. Il progetto pilota di Assicurazione Globale dell’IA e un nuovo Sandbox di Assicurazione dell’IA mirano a sviluppare metodi di test standardizzati per gestire rischi come contenuti tossici e perdite di dati. L’Starter Kit dell’IMDA offre strumenti pratici che vanno oltre i quadri di alto livello.

Esempi includono l’Ospedale Generale di Changi, che ha testato uno strumento di riassunto per la sicurezza clinica, e NCS, che ha verificato l’allineamento del suo assistente di codifica con standard interni e normativi. Questi sforzi illustrano l’impegno di Singapore a costruire un ecosistema di IA robusto che protegga gli utenti e incoraggi l’innovazione responsabile.

Standard Nazionale per la Protezione dei Dati

Il Data Protection Trustmark è stato ora elevato a Singapore Standard 714, stabilendo un benchmark nazionale per le organizzazioni che dimostrano pratiche di protezione dei dati solide. Questo nuovo standard assicura ai consumatori che le aziende certificate adottano misure di governance dei dati di livello mondiale. Consente inoltre alle aziende di guadagnare un vantaggio competitivo mostrando il loro impegno per un uso responsabile dei dati e la conformità alla privacy.

Concludendo, Singapore esorta alla responsabilità collettiva lungo il ciclo di vita dell’IA e riafferma il suo impegno a consentire un’innovazione responsabile, promuovendo al contempo la fiducia pubblica nella governance dei dati e dell’IA.

Affrontando queste sfide in modo collaborativo, Singapore punta a diventare un leader nell’adozione fidata ed efficace dell’IA in tutti i settori. L’approccio equilibrato della nazione di incoraggiare l’innovazione garantendo al contempo sicurezza e responsabilità potrebbe servire da modello globale per la governance dell’IA e dei dati.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...