Guida poco chiara e termini vaghi nella Legge di Base sull’IA lasciano le aziende in un limbo
La Legge di Base sullo Sviluppo dell’Intelligenza Artificiale (IA) della Corea, entrata in vigore il 22 gennaio, rappresenta il primo quadro giuridico completo per l’IA al mondo. Con nuovi obblighi per le aziende che sviluppano o implementano tecnologie IA, gli attori dell’industria si affannano a interpretare le nuove normative, in mezzo a crescenti preoccupazioni riguardo ai loro standard vaghi e all’incertezza sui rischi aziendali derivanti.
Obiettivi e struttura della legge
Le normative mirano a bilanciare l’innovazione dell’IA con la sicurezza e la fiducia pubblica, creando un quadro di governance nazionale centrato su un comitato nazionale per l’IA presieduto dal presidente. La legge impone un piano maestro per l’IA ogni tre anni, potenzia i poteri del comitato presidenziale e prevede un supporto governativo per la ricerca e lo sviluppo, l’infrastruttura dei dati di addestramento e misure speciali per piccole e medie imprese e startup.
Inoltre, la legge obbliga a divulgare i contenuti generati dall’IA e impone misure di trasparenza come i watermark, oltre a controlli sui sistemi classificati come “ad alto impatto”. Tuttavia, le aziende devono navigare tra definizioni poco chiare e standard incerti, temendo che ciò possa rallentare l’innovazione e complicare la conformità.
Trasparenza obbligatoria, ma guida poco chiara
Secondo la legge, le entità che sviluppano o utilizzano l’IA a scopi commerciali devono notificare gli utenti quando i contenuti, come immagini o testi, sono generati dall’IA usando watermark visibili. Tuttavia, i dettagli pratici rimangono incompleti, in particolare riguardo a quando è necessario un watermark e chi deve applicarlo. Le aziende che utilizzano strumenti generativi non sono definite come fornitori di servizi IA e quindi sono esentate dall’obbligo di etichettatura, creando potenziali lacune e incertezze nel perimetro normativo.
Molti contenuti ingannevoli provengono da applicazioni estere fuori dalla giurisdizione della legge coreana, e solo pochi grandi colossi tecnologici soddisfano gli elevati requisiti per nominare un rappresentante locale soggetto alla giurisdizione coreana.
IA ad alto impatto ancora indefinita
Un altro punto controverso è la disposizione della legge sui sistemi IA ad alto impatto, definiti come quelli che potrebbero influenzare significativamente la vita umana, la sicurezza o i diritti fondamentali. La legge intende classificare e imporre salvaguardie aggiuntive per applicazioni ad alto impatto, come i veicoli autonomi e la diagnostica sanitaria.
Tuttavia, il legislatore non fornisce soglie quantitative specifiche per la classificazione dei sistemi ad alto impatto, lasciando termini vaghi come “impatto significativo” e “rischio di danno”, che potrebbero complicare la pianificazione degli investimenti per applicazioni su larga scala dell’IA.
Conclusioni
Durante il periodo di grazia di un anno previsto dalla legge, il governo ha assicurato un temporaneo allentamento delle ispezioni e delle multe, mentre le aziende tecnologiche riorganizzano la governance interna per allinearsi alle nuove regole. Tuttavia, la mancanza di definizioni chiare e linee guida potrebbe causare ritardi nel lancio di progetti e aumentare l’incertezza nel panorama innovativo tecnologico.