Nuove frontiere della regolamentazione dell’IA in Corea del Sud

La nuova Legge Fondamentale sull’AI in Corea: Caratteristiche e significato

Il presidente ha definito chiaramente l’AI come un “cambiamento radicale” che modificherà il paradigma economico globale, presentandola come un motore chiave per la crescita tecnologica della nazione.

In linea con questa strategia nazionale, la nuova Legge Fondamentale sull’AI è entrata in vigore a gennaio 2026. Analogamente alla Legge sull’AI dell’UE, essa regola i sistemi di AI che presentano rischi significativi per la vita umana e i diritti fondamentali, riflettendo anche gli impegni del governo per lo sviluppo della tecnologia AI e delle industrie correlate.

Sebbene l’applicazione delle sanzioni sia stata posticipata di un anno, la legge sta attirando l’attenzione globale come la prima normativa al mondo a implementare regolamenti obbligatori per gli operatori di AI ad alto impatto.

Definizione e regolamentazione dell’AI ad alto impatto

La definizione di “AI ad alto impatto” nella Legge Fondamentale è identica a quella di “sistema ad alto rischio” nella Legge sull’AI dell’UE, suggerendo che il meccanismo di regolazione degli operatori sia molto simile. Tuttavia, la Legge Fondamentale si distingue per un sistema in cui gli operatori adottano misure volontarie per garantire la sicurezza dell’AI, con una supervisione successiva da parte del ministero competente. Anche se sono previste sanzioni per le violazioni, la multa amministrativa massima è di 30 milioni di KRW.

Specficamente, la Legge Fondamentale non prevede lo stesso livello di enforcement obbligatorio della Legge sull’AI dell’UE. Richiede agli operatori di auto-valutare se rientrano nella categoria dell’AI ad alto impatto e raccomanda di stabilire piani di gestione del rischio.

Confronto con la Legge sull’AI dell’UE

Contrariamente al sistema di regolamentazione dell’UE, che richiede ai sviluppatori di AI ad alto rischio di sottoporsi a una valutazione di conformità prima della distribuzione sul mercato, non esiste un controllo obbligatorio pre-mercato sui sistemi di AI ad alto impatto, a meno che l’operatore non richieda volontariamente la conferma dello stato di alto impatto.

La Legge Fondamentale stabilisce un sistema di gestione e supervisione per proteggere gli utenti attraverso regolamenti, ma prevede anche il supporto governativo per l’uso dell’AI. Essa definisce il ruolo del governo nel sostenere lo sviluppo tecnologico dell’AI e nella standardizzazione.

Obblighi e responsabilità degli operatori di AI

La Legge Fondamentale elenca gli obblighi di sicurezza per gli operatori di AI ad alto impatto, come l’identificazione e la mitigazione dei rischi durante il ciclo di vita del modello, simile alla Legge dell’UE. Tuttavia, la soglia di calcolo cumulativo per l’addestramento è fissata dieci volte più alta rispetto a quella dell’UE, escludendo di fatto gli operatori nazionali da queste normative.

In altre parole, la Legge Fondamentale può essere vista come un incoraggiamento allo sviluppo di modelli GPAI industrialmente specializzati attraverso una lacuna normativa per modelli GPAI di super scala.

Applicazioni pratiche e limitazioni

La Legge Fondamentale elenca dieci aree ad alto impatto, ma il suo ambito può essere più ristretto rispetto a quello della Legge dell’UE. Ad esempio, nell’industria finanziaria, considera “giudizio o valutazione nella selezione dei prestiti” come area ad alto impatto, rendendo l’applicazione pratica molto più ristretta rispetto alla “solvibilità” e alla “valutazione del credito” regolate dalla Legge dell’UE.

Inoltre, la Legge Fondamentale classifica solo l’uso dell’AI nelle assunzioni come ad alto impatto, escludendo la gestione dei lavoratori.

La legge impone un obbligo di trasparenza per notificare agli utenti finali l’uso dell’AI nei prodotti o servizi forniti. Mentre la Legge dell’UE impone obblighi di trasparenza sui fornitori di modelli per consentire un uso appropriato degli output dell’AI, la Legge Fondamentale richiede solo che gli utenti finali siano informati dell’uso dell’AI.

Implicazioni future e conclusione

Poiché la Legge Fondamentale non prevede disposizioni specifiche per GPAI, non vi è menzione della conformità alle leggi sul copyright. La mancanza di clausole di eccezione come il TDM nella legge attuale sul copyright della Corea del Sud potrebbe dare origine a dispute legali significative durante l’addestramento e lo sviluppo dei modelli di AI.

La Legge Fondamentale stabilisce che il ministero competente promuova politiche per la produzione, raccolta e utilizzo di dati di addestramento. Inoltre, il ministero ha un ruolo crescente nel coordinare le politiche governative e il supporto all’industria AI.

In sintesi, la Legge Fondamentale sull’AI rappresenta un passo significativo per il paese verso la regolazione dell’AI, cercando di bilanciare la promozione dell’innovazione con la protezione dei diritti fondamentali e la sicurezza degli utenti.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...