Regole Ambigue: L’Industria AI Chiede un Rinvio della Legge Fondamentale

La Legge Fondamentale sull’IA Affronta Resistenze Mentre l’Industria Chiede un Rinvio

Le preoccupazioni sono emerse nell’industria riguardo agli standard normativi ambigui contenuti nella legge fondamentale sull’IA, che potrebbero ostacolare la crescita del settore. Recentemente, Huang Jeong-a, un membro del Partito Democratico della Corea, ha proposto un disegno di legge per rinviare le normative stabilite dalla legge fondamentale sull’IA per tre anni, indicando che si prevedono difficoltà prima dell’implementazione della legge, prevista per l’anno prossimo.

Dettagli sulla Legge Fondamentale sull’IA

Secondo l’industria, la legge fondamentale sull’IA, nota come Legge Fondamentale per la Promozione dell’Intelligenza Artificiale e l’Establishment della Fiducia, è stata approvata dalla plenaria dell’Assemblea Nazionale lo scorso dicembre e sarà pienamente implementata il 22 gennaio dell’anno prossimo. Questa legge rappresenta la seconda legislazione relativa all’IA stabilita a livello globale, dopo il Regolamento sull’IA dell’Unione Europea. Mentre l’UE è stata la prima a legislare, si prevede che la Corea del Sud sarà la prima a implementarla a livello mondiale, con il regolamento dell’UE che entrerà in vigore ad agosto dell’anno prossimo.

Focus della Legge

La legge fondamentale sull’IA si concentra principalmente sullo sviluppo industriale e sull’establishment della fiducia, gestendo i rischi. Classifica l’IA in IA ad alto impatto e IA generale, con l’IA ad alto impatto che ha un effetto significativo sulla vita, la sicurezza e i diritti fondamentali. Impone obblighi di notifica preventiva, verifica e certificazione agli operatori di IA ad alto impatto. Inoltre, contiene regolamenti che affermano che i risultati prodotti utilizzando l’IA generativa, come i deepfake, devono essere notificati attraverso l’etichettatura delle fonti (watermarking).

Proposta di Rinvio

La proposta di emendamento di Huang prevede il rinvio di tali regolamenti fino a gennaio 2029. Huang ha dichiarato: “In un contesto di crescente competizione globale per la supremazia dell’IA, ci sono preoccupazioni che una politica normativa immatura possa farci perdere il momento favorevole per diventare una potenza nell’IA.”

Critiche e Preoccupazioni dell’Industria

L’industria dell’IA ha sollevato richieste di revisione delle disposizioni ambigue nella legge fondamentale che non si allineano con le realtà affrontate dall’ecosistema dell’IA domestica. Il Ministero della Scienza e delle ICT ha formato un team di riforma delle leggi secondarie all’inizio dell’anno e sta attualmente preparando una bozza del decreto attuativo. Tuttavia, ci sono preoccupazioni su se sarà possibile sviluppare un decreto attuativo dettagliato ed efficace con poco tempo rimasto prima dell’implementazione della legge.

Questioni Chiave Relativi al Decreto Attuativo

Le questioni chiave relative al decreto attuativo della legge fondamentale sull’IA che l’industria sta monitorando includono: definizione di IA ad alto impatto, watermarking obbligatorio, e autorità investigativa del governo.

Una critica significativa è che i criteri per l’IA ad alto impatto sono eccessivamente astratti e ampii. La legge classifica i sistemi di IA che hanno un effetto significativo sulla sicurezza fisica e i diritti fondamentali, o che pongono un rischio, principalmente in settori come l’energia, la salute, il trasporto e il prestito, ma non è chiaro quali IA specifiche rientrino in questa categoria.

Controversie sul Watermarking

La regolamentazione che impone il marchio dei contenuti generati dall’IA è anch’essa controversa. Attualmente, l’IA è spesso utilizzata come un semplice strumento ausiliario nei processi di produzione di film, webtoon e animazioni, creando immagini di sfondo. L’industria sottolinea che l’aggiunta di watermark in questi casi può compromettere la qualità dei contenuti e delle attività creative.

Inoltre, ci sono preoccupazioni che possano sorgere fughe di informazioni personali e sensibili, così come minacce alla cybersecurity, durante il processo di verifica e certificazione preventiva del governo per le aziende o i prodotti legati all’IA ad alto impatto, evidenziando l’urgenza di stabilire standard per prevenire indagini e verifiche eccessive.

Riflessioni Finali

Un rappresentante dell’organizzazione di startup Startup Alliance ha affermato: “Ci sono preoccupazioni che le voci del settore potrebbero non essere adeguatamente rappresentate, poiché il personale effettivo che opera modelli o servizi di IA e gli esperti tecnici del sito industriale non sono inclusi nel team di riforma delle leggi secondarie per la legge fondamentale sull’IA.”

Choi Byeong-ho, professore presso l’Istituto di Ricerca sull’IA dell’Università della Corea, ha dichiarato: “Attualmente, l’industria dell’IA è in uno stato di rapida espansione tecnologica e c’è un significativo rischio che la legge non tenga il passo con la velocità del progresso tecnologico e resti indietro. È necessario preparare leggi secondarie in modo che la legge fondamentale sull’IA possa essere continuamente aggiornata in modo tempestivo in conformità con il suo obiettivo di promuovere l’industria.”

Il Ministero della Scienza e delle ICT ha posizionato se stesso per implementare la legge fondamentale sull’IA a gennaio come programmato, raccogliendo opinioni dall’industria. Il piano è di preparare la bozza finale della legge fondamentale sull’IA entro giugno al più presto e di annunciare il decreto attuativo contenente regolamenti dettagliati a luglio e agosto. Un funzionario del ministero ha dichiarato: “Stiamo preparando un decreto attuativo che minimizzi le normative concentrandosi sulla promozione, raccogliendo quante più opinioni possibili dall’industria.”

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...