Innovazione Responsabile: Protezione dei Dati e Governance dell’IA a Singapore

Singapore: Rafforzare la Protezione dei Dati e la Governance dell’IA

Singapore sta rispondendo in modo proattivo alle sfide in evoluzione poste dall’uso dei dati nell’era dell’intelligenza artificiale (IA). Questo è stato evidenziato nel discorso di apertura del Ministro per le Comunicazioni e l’Informazione durante la Settimana della Protezione dei Dati 2025.

Con oltre 1.500 partecipanti e molti altri che partecipano durante la settimana, l’evento sottolinea l’importanza crescente della protezione dei dati in un paesaggio tecnologico e globale in rapida evoluzione. Il tema di quest’anno, “Protezione dei Dati in un Mondo in Cambiamento”, riflette la necessità pressante di adattare non solo leggi e pratiche ma anche norme sociali più ampie.

Il Ruolo dei Dati nello Sviluppo dell’IA

Il Ministro ha evidenziato come i dati alimentano l’intero ciclo di sviluppo dell’IA, dalla pre-formazione alla messa a punto, al test e alla validazione. Applicazioni specifiche come AskMax, il chatbot dell’Aeroporto di Changi, e GPT-Legal, perfezionato utilizzando il database di LawNet, illustrano la dipendenza dell’IA da set di dati specifici di alta qualità.

Le Sfide dei Dati e dell’IA

Tuttavia, i dati sono diventati anche una costrizione. I dati di internet utilizzati nella formazione sono spesso irregolari e possono includere contenuti pregiudizievoli o tossici. Una sfida regionale di red-teaming ha rivelato stereotipi preoccupanti generati da un modello di linguaggio, sottolineando i rischi dei dati di addestramento non filtrati.

Con gli sviluppatori che esauriscono i set di dati pubblici, l’attenzione si sta spostando su fonti più sensibili, comprese le partnership private con università, aziende e governi, il che solleva nuove preoccupazioni sulla privacy.

Applicazioni dell’IA e Sicurezza

Le applicazioni dell’IA possono anche presentare sfide quando vengono implementate. Un test ha rilevato che un chatbot utilizzato da un produttore high-tech ha rivelato tassi di commissione di vendita backend quando sollecitato in mandarino. Questo esempio, scoperto da Vulcan, illustra l’importanza di misure di sicurezza robuste e del testing pre-rilascio.

Misure di protezione come prompt di sistema, generazione aumentata da recupero (RAG) e filtri dei dati sono comunemente utilizzati per affrontare problemi di affidabilità, pregiudizio e privacy. Tuttavia, fallimenti inaspettati evidenziano la necessità di test indipendenti. Come sottolineato dal Ministro, garantire che le applicazioni di IA generativa funzionino come previsto è cruciale per la fiducia e l’adozione.

Sandbox per Tecnologie che Migliorano la Privacy

Il Sandbox per Tecnologie che Migliorano la Privacy (PETs) di Singapore offre uno spazio sicuro per la sperimentazione. Ad esempio, la società finanziaria Ant International ha addestrato un modello con un partner di portafoglio digitale utilizzando set di dati separati, migliorando il targeting dei voucher e il coinvolgimento senza compromettere la privacy dei clienti.

I dati sintetici mostrano anche promesse. La Guida del PDPC sulla Generazione di Dati Sintetici delinea le migliori pratiche e aziende locali come Betterdata stanno aiutando gli sviluppatori ad aumentare i set di dati di addestramento proteggendo le informazioni sensibili.

Promuovere l’Adozione delle Tecnologie di Privacy

Per supportare una più ampia adozione, l’IMDA introdurrà una Guida all’Adozione delle PETs per i leader C-suite, aiutando le aziende a scegliere e implementare tecnologie di privacy adeguate. Il Summit delle PETs torna quest’anno per approfondire la collaborazione intersettoriale tra regolatori, fornitori tecnologici e adottanti.

Assicurazione dell’IA e Standardizzazione

Singapore sta anche avanzando nell’assicurazione dell’IA. Il progetto pilota di Assicurazione Globale dell’IA e un nuovo Sandbox di Assicurazione dell’IA mirano a sviluppare metodi di test standardizzati per gestire rischi come contenuti tossici e perdite di dati. L’Starter Kit dell’IMDA offre strumenti pratici che vanno oltre i quadri di alto livello.

Esempi includono l’Ospedale Generale di Changi, che ha testato uno strumento di riassunto per la sicurezza clinica, e NCS, che ha verificato l’allineamento del suo assistente di codifica con standard interni e normativi. Questi sforzi illustrano l’impegno di Singapore a costruire un ecosistema di IA robusto che protegga gli utenti e incoraggi l’innovazione responsabile.

Standard Nazionale per la Protezione dei Dati

Il Data Protection Trustmark è stato ora elevato a Singapore Standard 714, stabilendo un benchmark nazionale per le organizzazioni che dimostrano pratiche di protezione dei dati solide. Questo nuovo standard assicura ai consumatori che le aziende certificate adottano misure di governance dei dati di livello mondiale. Consente inoltre alle aziende di guadagnare un vantaggio competitivo mostrando il loro impegno per un uso responsabile dei dati e la conformità alla privacy.

Concludendo, Singapore esorta alla responsabilità collettiva lungo il ciclo di vita dell’IA e riafferma il suo impegno a consentire un’innovazione responsabile, promuovendo al contempo la fiducia pubblica nella governance dei dati e dell’IA.

Affrontando queste sfide in modo collaborativo, Singapore punta a diventare un leader nell’adozione fidata ed efficace dell’IA in tutti i settori. L’approccio equilibrato della nazione di incoraggiare l’innovazione garantendo al contempo sicurezza e responsabilità potrebbe servire da modello globale per la governance dell’IA e dei dati.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...