La nuova Legge Fondamentale sull’AI in Corea: Caratteristiche e significato
Il presidente ha definito chiaramente l’AI come un “cambiamento radicale” che modificherà il paradigma economico globale, presentandola come un motore chiave per la crescita tecnologica della nazione.
In linea con questa strategia nazionale, la nuova Legge Fondamentale sull’AI è entrata in vigore a gennaio 2026. Analogamente alla Legge sull’AI dell’UE, essa regola i sistemi di AI che presentano rischi significativi per la vita umana e i diritti fondamentali, riflettendo anche gli impegni del governo per lo sviluppo della tecnologia AI e delle industrie correlate.
Sebbene l’applicazione delle sanzioni sia stata posticipata di un anno, la legge sta attirando l’attenzione globale come la prima normativa al mondo a implementare regolamenti obbligatori per gli operatori di AI ad alto impatto.
Definizione e regolamentazione dell’AI ad alto impatto
La definizione di “AI ad alto impatto” nella Legge Fondamentale è identica a quella di “sistema ad alto rischio” nella Legge sull’AI dell’UE, suggerendo che il meccanismo di regolazione degli operatori sia molto simile. Tuttavia, la Legge Fondamentale si distingue per un sistema in cui gli operatori adottano misure volontarie per garantire la sicurezza dell’AI, con una supervisione successiva da parte del ministero competente. Anche se sono previste sanzioni per le violazioni, la multa amministrativa massima è di 30 milioni di KRW.
Specficamente, la Legge Fondamentale non prevede lo stesso livello di enforcement obbligatorio della Legge sull’AI dell’UE. Richiede agli operatori di auto-valutare se rientrano nella categoria dell’AI ad alto impatto e raccomanda di stabilire piani di gestione del rischio.
Confronto con la Legge sull’AI dell’UE
Contrariamente al sistema di regolamentazione dell’UE, che richiede ai sviluppatori di AI ad alto rischio di sottoporsi a una valutazione di conformità prima della distribuzione sul mercato, non esiste un controllo obbligatorio pre-mercato sui sistemi di AI ad alto impatto, a meno che l’operatore non richieda volontariamente la conferma dello stato di alto impatto.
La Legge Fondamentale stabilisce un sistema di gestione e supervisione per proteggere gli utenti attraverso regolamenti, ma prevede anche il supporto governativo per l’uso dell’AI. Essa definisce il ruolo del governo nel sostenere lo sviluppo tecnologico dell’AI e nella standardizzazione.
Obblighi e responsabilità degli operatori di AI
La Legge Fondamentale elenca gli obblighi di sicurezza per gli operatori di AI ad alto impatto, come l’identificazione e la mitigazione dei rischi durante il ciclo di vita del modello, simile alla Legge dell’UE. Tuttavia, la soglia di calcolo cumulativo per l’addestramento è fissata dieci volte più alta rispetto a quella dell’UE, escludendo di fatto gli operatori nazionali da queste normative.
In altre parole, la Legge Fondamentale può essere vista come un incoraggiamento allo sviluppo di modelli GPAI industrialmente specializzati attraverso una lacuna normativa per modelli GPAI di super scala.
Applicazioni pratiche e limitazioni
La Legge Fondamentale elenca dieci aree ad alto impatto, ma il suo ambito può essere più ristretto rispetto a quello della Legge dell’UE. Ad esempio, nell’industria finanziaria, considera “giudizio o valutazione nella selezione dei prestiti” come area ad alto impatto, rendendo l’applicazione pratica molto più ristretta rispetto alla “solvibilità” e alla “valutazione del credito” regolate dalla Legge dell’UE.
Inoltre, la Legge Fondamentale classifica solo l’uso dell’AI nelle assunzioni come ad alto impatto, escludendo la gestione dei lavoratori.
La legge impone un obbligo di trasparenza per notificare agli utenti finali l’uso dell’AI nei prodotti o servizi forniti. Mentre la Legge dell’UE impone obblighi di trasparenza sui fornitori di modelli per consentire un uso appropriato degli output dell’AI, la Legge Fondamentale richiede solo che gli utenti finali siano informati dell’uso dell’AI.
Implicazioni future e conclusione
Poiché la Legge Fondamentale non prevede disposizioni specifiche per GPAI, non vi è menzione della conformità alle leggi sul copyright. La mancanza di clausole di eccezione come il TDM nella legge attuale sul copyright della Corea del Sud potrebbe dare origine a dispute legali significative durante l’addestramento e lo sviluppo dei modelli di AI.
La Legge Fondamentale stabilisce che il ministero competente promuova politiche per la produzione, raccolta e utilizzo di dati di addestramento. Inoltre, il ministero ha un ruolo crescente nel coordinare le politiche governative e il supporto all’industria AI.
In sintesi, la Legge Fondamentale sull’AI rappresenta un passo significativo per il paese verso la regolazione dell’AI, cercando di bilanciare la promozione dell’innovazione con la protezione dei diritti fondamentali e la sicurezza degli utenti.