Global AI Law and Policy Tracker: Highlights and Takeaways
La corsa per dominare i dati e l’infrastruttura che alimentano l’intelligenza artificiale è accompagnata dalla creazione di leggi e politiche che facilitano il controllo su questa rivoluzione tecnologica. L’approvazione dell’EU AI Act nel 2024 ha segnato un punto di riferimento nella legislazione complessiva che governa l’IA, anche se una tendenza più recente è quella di temperare i limiti normativi sulla tecnologia in nome della concorrenza e dell’innovazione. Come dimostra il Global AI Law and Policy Tracker aggiornato, molte nazioni continuano a dibattere politiche impattanti, testando nuovi modelli di governance mentre i rischi e i benefici degli investimenti in IA vengono rivelati quotidianamente.
Un flusso costante di legislazione
Mentre l’UE considera di mettere in pausa l’implementazione di parte del suo AI Act, altri paesi stanno avanzando sforzi per approvare nuove legislazioni sull’IA. Ad esempio, la Corea del Sud ha finalizzato il suo AI Framework Act nel gennaio 2025, che rafforza i requisiti di trasparenza e sicurezza e offre varie misure promozionali, come supporto per ricerca e sviluppo e per l’adozione dell’IA e la preparazione della forza lavoro. Allo stesso modo, il Giappone ha promulgato l’AI Promotion Act nel maggio 2025, una regolamentazione leggera che incoraggia le aziende a cooperare con le misure di sicurezza del governo e consente al governo di divulgare pubblicamente i nomi delle aziende che utilizzano l’IA per violare i diritti umani. Inoltre, la Cina ha promulgato le sue Regole di Etichettatura dell’IA, che richiedono ai fornitori di servizi, come definito dalle normative esistenti sull’IA in Cina, di aggiungere etichette sia esplicite che implicite ai contenuti generati dall’IA.
Legislazione in bozza
La lista delle legislazioni sull’IA in bozza è ancora più imponente. Include il Progetto di Legge sulla Protezione dei Dati Personali nei Sistemi di IA dell’Argentina, che cerca di regolamentare l’uso dei dati personali utilizzati per sviluppare sistemi di IA oltre l’ambito della legge esistente sulla protezione dei dati dell’Argentina, e il proposto Digital India Act dell’India, che mira ad aggiornare il regime normativo dell’India riguardo allo spazio cibernetico e fornire disposizioni che governano i contenuti generati dall’IA. Le proposte includono anche il Progetto di Legge n. 2338/2023 del Brasile, che creerebbe un quadro basato sul rischio che impone valutazioni del rischio e meccanismi di ricorso sui sistemi ad alto rischio, così come la Bozza di Legge sull’IA del Vietnam, che enfatizza l’umanesimo, la gestione basata sul rischio e le distinzioni normative a seconda del posto di un’entità nella catena di fornitura dell’IA.
Nuove leggi che impattano indirettamente lo sviluppo dell’IA
L’Australia ha apportato modifiche al suo Privacy Act, che regola le divulgazioni relative alla decisione automatizzata, e l’approvazione del Data (Use and Access) Act nel Regno Unito modifica il Regolamento Generale sulla Protezione dei Dati del Regno Unito in modi intesi a promuovere l’innovazione e la crescita economica, come chiarire quando i dati personali possono essere utilizzati per la ricerca scientifica e liberalizzare le basi legali disponibili per la decisione automatizzata.
La crescita dei centri di IA
Mentre le nazioni erigono barriere normative, molte stanno contemporaneamente estendendo politiche che attraggono investimenti nello sviluppo e nell’infrastruttura dell’IA. Un esempio è il Cile, che si è classificato al primo posto in un indice latinoamericano dell’IA mentre espande la costruzione di data center, posa di cavi sottomarini in fibra ottica e promuove startup locali di IA. Dall’altra parte del continente, il Brasile prevede di investire 4 miliardi di dollari in progetti aziendali di IA, infrastrutture, iniziative di formazione, miglioramenti ai servizi pubblici e quadri normativi. Molti degli stati del Golfo intendono anch’essi diventare hub dell’IA. Ad esempio, gli Emirati Arabi Uniti ospitano una crescente comunità di startup e ricerca, oltre a risorse di supercalcolo all’avanguardia, inclusa una partnership per costruire capacità computazionale di frontiera e abilitare strumenti di IA in settori critici. Inoltre, l’Arabia Saudita intende sfruttare la sua popolazione giovane e vivace e un ecosistema di governance centralizzato, ospitando eventi e attirando investimenti per diventare un esportatore leader di dati e IA entro il 2030.
Segnali di deregolamentazione
Ovviamente, ci sono anche segnali di deregolamentazione all’orizzonte. È in primo piano la discussione secondo cui l’UE potrebbe posticipare l’implementazione dell’AI Act, racchiusa in una proposta di Digital Omnibus sull’IA rilasciata dalla Commissione Europea a metà novembre 2025. La proposta ha notato diverse sfide di implementazione, inclusi ritardi nella designazione delle autorità competenti e mancanza di standard armonizzati per i requisiti dell’IA ad alto rischio e strumenti di guida necessari. Sono state proposte diverse modifiche all’atto, tra cui l’ingresso ritardato in applicazione delle disposizioni relative ai sistemi di IA ad alto rischio per allineare l’applicazione con la disponibilità di strumenti di conformità. Altre modifiche includono requisiti documentali ridotti per piccole e medie imprese e poteri di supervisione rinforzati per l’ufficio dell’IA riguardo a modelli di IA generali. Anche se questa proposta è solo questo, prefigura future negoziazioni sul rollout e sull’impatto normativo dell’AI Act.
Governance attraverso standard
Dove la legislazione vincolante è carente, gli standard operativi e tecnici continuano a colmare il vuoto. Ad esempio, il governo ha stabilito una collaborazione per la standardizzazione dell’IA e dei dati per sviluppare standard basati su esigenze testate e multistakeholder e garantire coerenza tra i quadri nazionali e internazionali. Inoltre, è stato rilasciato un standard di sicurezza volontaria per l’IA, che comprende dieci guardrail per lo sviluppo di IA sicura e responsabile. Altre nazioni, come la Cina e l’India, stanno lavorando per sviluppare vari standard per metriche come affidabilità, spiegabilità e privacy.
Questioni relative al copyright
L’uso di dati protetti da copyright per addestrare sistemi di IA rimane una questione legale controversa. Sviluppi recenti includono un processo di consultazione pubblica avviato per valutare potenziali aggiornamenti alle leggi sul copyright per creare un’eccezione per l’analisi e l’elaborazione dei dati computazionali. Inoltre, un tribunale ha stabilito che l’addestramento di un modello di IA su opere protette da copyright probabilmente qualifica come uso equo. Il Giappone ha modificato la sua legge sul copyright, ora consente l’uso di opere protette per scopi di sviluppo e addestramento dell’IA, a condizione che l’uso non sia destinato a replicare il contenuto espressivo dell’opera.
Cooperazione internazionale in corso
Tra tutte queste politiche, la cooperazione internazionale sulla governance dell’IA continua. Alcuni paesi si distinguono come leader nella diplomazia, svelando iniziative per creare interoperabilità tra i quadri di governance e firmando accordi per collaborare sulla sicurezza e sull’innovazione dell’IA. Inoltre, diversi paesi stanno collaborando per rafforzare la cooperazione nello sviluppo dell’IA e nel trasferimento tecnologico.
Conclusione
Anche se emergono tendenze di deregolamentazione, le leggi e le politiche che governano l’IA continuano a proliferare, sebbene in nuove ed innovative espressioni. Alcune giurisdizioni continuano a dibattere leggi complete, altre considerano l’efficacia degli standard, mentre la maggior parte è convinta che la cooperazione internazionale e la diplomazia siano fondamentali per la governance di questa tecnologia dirompente.