Spiegazione: La Legge Fondamentale sull’IA in Corea
La Corea del Sud si è posizionata all’avanguardia della regolamentazione dell’IA in Asia con l’approvazione della Legge sullo Sviluppo dell’Intelligenza Artificiale e sull’Istituzione della Fiducia, nota come Legge Fondamentale sull’IA, il 26 dicembre dell’anno scorso.
Questa legislazione pionieristica rende la Corea del Sud il primo mercato asiatico a stabilire un quadro giuridico completo per l’IA, seguendo l’esempio dell’Unione Europea, che ha adottato la Legge sull’IA dell’UE. Entrerà in vigore nel gennaio 2026, dando alle imprese un anno di tempo per adeguarsi ai requisiti.
Quali settori saranno impattati dalla legge?
Secondo esperti legali, la legge avrà un impatto significativo sui settori che fanno ampio uso dell’IA. Nel settore della mobilità, i sistemi di veicoli autonomi rientrano nella categoria dell’IA ad alto impatto, che utilizza sistemi di IA che influenzano la vita, la sicurezza fisica e i diritti fondamentali. Le attività di IA ad alto impatto richiedono valutazioni di sicurezza avanzate e maggiore trasparenza.
Analogamente, i sistemi di IA utilizzati nei dispositivi medici e nella sanità sono considerati ad alto impatto a causa della loro influenza sulla salute e sicurezza. “Nel settore dei dispositivi medici, la Legge sui Prodotti Sanitari Digitali (DHPA), che regola le sperimentazioni cliniche, le approvazioni e il controllo qualità per i prodotti medici digitali, è già in vigore. È quindi cruciale che le aziende in questo settore si preparino in modo proattivo”, spiega un esperto.
Per le istituzioni finanziarie, i sistemi di IA utilizzati nella valutazione del credito, nel reclutamento e nei processi di prestito potrebbero rientrare nell’ambito della legge, richiedendo un’attenta esaminazione delle disposizioni normative e l’adattamento dei sistemi di IA di conseguenza.
“Inoltre, poiché l’ambito dei servizi di IA ad alto impatto ai sensi della legge è più ristretto rispetto a quello dei servizi ad alto rischio specificato nelle linee guida della Commissione per i Servizi Finanziari, le istituzioni devono rimanere vigili riguardo alle future pratiche di applicazione per garantire la conformità”, aggiunge l’esperto.
Le aziende che utilizzano sistemi di IA ad alto impatto o generativi devono informare gli utenti in anticipo se i loro prodotti o servizi incorporano elementi di IA o sono creati artificialmente.
“Inoltre, qualsiasi azienda che fornisce contenuti generati dall’IA deve chiaramente indicare che l’output proviene da IA generativa. Inoltre, le aziende che rilasciano contenuti virtuali – comprese le immagini o i video generati tramite deepfake – devono assicurarsi che tali contenuti siano accompagnati da una chiara notifica o etichetta che spieghi la loro origine e il metodo di formazione”, osserva l’esperto.
Quali obblighi di conformità pone la legge?
È consigliabile alle aziende di valutare proattivamente se i loro sistemi di IA rientrano nella categoria “ad alto impatto”, poiché la legge conferisce al Decreto Presidenziale l’autorità di definire l’ambito di questa categoria.
Per le aziende che operano servizi basati su IA ad alto impatto, si suggerisce di rispettare una serie di obblighi per garantire la conformità con la nuova legge. Questi obblighi includono l’implementazione di misure per identificare e mitigare i rischi, fornire spiegazioni chiare sui servizi basati su IA e garantire la protezione degli utenti.
Le aziende sono anche incoraggiate a progettare sistemi di IA in modo da consentire il monitoraggio e l’intervento umano quando necessario, oltre a mantenere documentazione per verificare la sicurezza, l’affidabilità e la conformità dei sistemi di IA ai requisiti normativi.
Per i sistemi di IA ad alto impatto, gli obblighi di conformità aggiuntivi includono standard di sicurezza e affidabilità, piani di gestione del rischio, strategie di protezione degli utenti, meccanismi di supervisione umana e valutazioni d’impatto.
È importante notare che la legge presenta anche un’applicazione extraterritoriale, richiedendo alle aziende non coreane di designare un agente domestico con presenza in Corea quando vengono soddisfatti determinati requisiti.
“Se un fornitore di servizi basato su IA globale rientra in questo mandato, deve anche nominare un rappresentante legale in Corea per gestire le questioni di conformità, e il mancato rispetto di questi requisiti potrebbe comportare multe fino a 30 milioni di won (circa 20.457 dollari) per la non conformità con gli obblighi di notifica e nomina dell’agente domestico, nonché restrizioni sulle operazioni aziendali se non vengono seguite le ordinanze correttive”, avverte l’esperto.
Come si confronta la legge con gli approcci di altre giurisdizioni?
Mentre altre giurisdizioni come il Regno Unito, la Cina continentale e il Giappone continuano a discutere la legislazione sull’IA con nuove leggi potenzialmente previste per il 2025, l’approccio della Corea del Sud offre un punto di riferimento prezioso per bilanciare innovazione e sviluppo responsabile dell’IA.
“La Cina ha adottato un quadro normativo rigoroso che prioritizza la sicurezza nazionale e la sovranità dei dati”, afferma l’esperto. “Singapore, d’altra parte, ha adottato un approccio flessibile, guidato dall’industria, promuovendo la governance aziendale dell’IA attraverso linee guida non vincolanti piuttosto che enforcement rigido.”
In confronto, “la Corea ha adottato una posizione regolamentare equilibrata, mirando a sostenere la crescita dell’industria dell’IA mentre garantisce trasparenza e sicurezza. L’approccio coreano cerca di promuovere l’innovazione implementando al contempo salvaguardie contro i potenziali rischi legati all’IA”, conclude l’esperto.
“Queste differenze evidenziano come ogni paese adatti le proprie normative sull’IA per allinearsi con il proprio ambiente economico e le priorità politiche. Allo stesso tempo, sottolineano l’importanza di valutare attentamente l’impatto delle normative sull’IA sulla competitività nazionale e sul progresso tecnologico”, aggiunge.