Innovazione Responsabile: Protezione dei Dati e Governance dell’IA a Singapore

Singapore: Rafforzare la Protezione dei Dati e la Governance dell’IA

Singapore sta rispondendo in modo proattivo alle sfide in evoluzione poste dall’uso dei dati nell’era dell’intelligenza artificiale (IA). Questo è stato evidenziato nel discorso di apertura del Ministro per le Comunicazioni e l’Informazione durante la Settimana della Protezione dei Dati 2025.

Con oltre 1.500 partecipanti e molti altri che partecipano durante la settimana, l’evento sottolinea l’importanza crescente della protezione dei dati in un paesaggio tecnologico e globale in rapida evoluzione. Il tema di quest’anno, “Protezione dei Dati in un Mondo in Cambiamento”, riflette la necessità pressante di adattare non solo leggi e pratiche ma anche norme sociali più ampie.

Il Ruolo dei Dati nello Sviluppo dell’IA

Il Ministro ha evidenziato come i dati alimentano l’intero ciclo di sviluppo dell’IA, dalla pre-formazione alla messa a punto, al test e alla validazione. Applicazioni specifiche come AskMax, il chatbot dell’Aeroporto di Changi, e GPT-Legal, perfezionato utilizzando il database di LawNet, illustrano la dipendenza dell’IA da set di dati specifici di alta qualità.

Le Sfide dei Dati e dell’IA

Tuttavia, i dati sono diventati anche una costrizione. I dati di internet utilizzati nella formazione sono spesso irregolari e possono includere contenuti pregiudizievoli o tossici. Una sfida regionale di red-teaming ha rivelato stereotipi preoccupanti generati da un modello di linguaggio, sottolineando i rischi dei dati di addestramento non filtrati.

Con gli sviluppatori che esauriscono i set di dati pubblici, l’attenzione si sta spostando su fonti più sensibili, comprese le partnership private con università, aziende e governi, il che solleva nuove preoccupazioni sulla privacy.

Applicazioni dell’IA e Sicurezza

Le applicazioni dell’IA possono anche presentare sfide quando vengono implementate. Un test ha rilevato che un chatbot utilizzato da un produttore high-tech ha rivelato tassi di commissione di vendita backend quando sollecitato in mandarino. Questo esempio, scoperto da Vulcan, illustra l’importanza di misure di sicurezza robuste e del testing pre-rilascio.

Misure di protezione come prompt di sistema, generazione aumentata da recupero (RAG) e filtri dei dati sono comunemente utilizzati per affrontare problemi di affidabilità, pregiudizio e privacy. Tuttavia, fallimenti inaspettati evidenziano la necessità di test indipendenti. Come sottolineato dal Ministro, garantire che le applicazioni di IA generativa funzionino come previsto è cruciale per la fiducia e l’adozione.

Sandbox per Tecnologie che Migliorano la Privacy

Il Sandbox per Tecnologie che Migliorano la Privacy (PETs) di Singapore offre uno spazio sicuro per la sperimentazione. Ad esempio, la società finanziaria Ant International ha addestrato un modello con un partner di portafoglio digitale utilizzando set di dati separati, migliorando il targeting dei voucher e il coinvolgimento senza compromettere la privacy dei clienti.

I dati sintetici mostrano anche promesse. La Guida del PDPC sulla Generazione di Dati Sintetici delinea le migliori pratiche e aziende locali come Betterdata stanno aiutando gli sviluppatori ad aumentare i set di dati di addestramento proteggendo le informazioni sensibili.

Promuovere l’Adozione delle Tecnologie di Privacy

Per supportare una più ampia adozione, l’IMDA introdurrà una Guida all’Adozione delle PETs per i leader C-suite, aiutando le aziende a scegliere e implementare tecnologie di privacy adeguate. Il Summit delle PETs torna quest’anno per approfondire la collaborazione intersettoriale tra regolatori, fornitori tecnologici e adottanti.

Assicurazione dell’IA e Standardizzazione

Singapore sta anche avanzando nell’assicurazione dell’IA. Il progetto pilota di Assicurazione Globale dell’IA e un nuovo Sandbox di Assicurazione dell’IA mirano a sviluppare metodi di test standardizzati per gestire rischi come contenuti tossici e perdite di dati. L’Starter Kit dell’IMDA offre strumenti pratici che vanno oltre i quadri di alto livello.

Esempi includono l’Ospedale Generale di Changi, che ha testato uno strumento di riassunto per la sicurezza clinica, e NCS, che ha verificato l’allineamento del suo assistente di codifica con standard interni e normativi. Questi sforzi illustrano l’impegno di Singapore a costruire un ecosistema di IA robusto che protegga gli utenti e incoraggi l’innovazione responsabile.

Standard Nazionale per la Protezione dei Dati

Il Data Protection Trustmark è stato ora elevato a Singapore Standard 714, stabilendo un benchmark nazionale per le organizzazioni che dimostrano pratiche di protezione dei dati solide. Questo nuovo standard assicura ai consumatori che le aziende certificate adottano misure di governance dei dati di livello mondiale. Consente inoltre alle aziende di guadagnare un vantaggio competitivo mostrando il loro impegno per un uso responsabile dei dati e la conformità alla privacy.

Concludendo, Singapore esorta alla responsabilità collettiva lungo il ciclo di vita dell’IA e riafferma il suo impegno a consentire un’innovazione responsabile, promuovendo al contempo la fiducia pubblica nella governance dei dati e dell’IA.

Affrontando queste sfide in modo collaborativo, Singapore punta a diventare un leader nell’adozione fidata ed efficace dell’IA in tutti i settori. L’approccio equilibrato della nazione di incoraggiare l’innovazione garantendo al contempo sicurezza e responsabilità potrebbe servire da modello globale per la governance dell’IA e dei dati.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...