Rischi legali e di sovranità per la Nuova Zelanda con l’entrata in vigore delle normative sull’IA dell’UE
La Nuova Zelanda rischia di perdere il controllo su come viene utilizzata l’intelligenza artificiale in settori critici come la salute, l’istruzione e la giustizia, a meno che non introduca una propria legislazione vincolante sull’IA e sviluppi capacità sovrane. Questo avviso arriva mentre nuove normative in materia di intelligenza artificiale iniziano ad avere effetto in Europa sotto l’Atto sull’Intelligenza Artificiale dell’Unione Europea. Alcune disposizioni sono già in vigore quest’anno, mentre i requisiti più rigorosi per i sistemi ad alto rischio saranno applicabili dal 2 agosto 2026.
Normative e gestione dei rischi
Attualmente, la Nuova Zelanda non ha una legge autonoma sull’IA, e i rischi tecnologici vengono gestiti tramite la Carta degli Algoritmi, la Legge sulla Privacy e le protezioni generali dei diritti umani. Non esiste un regolatore dedicato all’IA né un regime di conformità unificato specificamente adattato all’intelligenza artificiale.
Secondo esperti, l’adozione dell’IA in Nuova Zelanda sta procedendo più rapidamente delle strutture di governance destinate a supervisionarla. Le agenzie governative stanno già sperimentando strumenti di IA generativa per semplificare la gestione documentale e la fornitura di servizi, mentre l’adozione dell’IA nei settori finanziario e logistico è guidata principalmente da aziende private.
Standard e responsabilità
La mancanza di una legislazione specifica per i sistemi di machine learning significa che le attuali normative non sono state redatte tenendo in conto tali tecnologie. La Legge sulla Privacy, pur rimanendo importante, non definisce standard tecnici per la validazione dei modelli, l’integrità dei dataset o i requisiti di audit. Senza una legislazione su misura, la responsabilità diventa frammentata.
Inoltre, è fondamentale che la Nuova Zelanda sviluppi le proprie capacità di formazione e adattamento dell’IA se desidera avere sistemi che riflettano le realtà locali. La maggior parte dei modelli di IA avanzati è addestrata su dataset internazionali influenzati da economie più grandi, il che potrebbe portare a risultati non ottimali per il contesto neozelandese.
Investimenti e infrastruttura
Per costruire capacità sovrane, la Nuova Zelanda dovrà investire in infrastrutture informatiche ad alte prestazioni, ambienti di dati sicuri e competenze specialistiche. Questo livello di infrastruttura nazionale e capacità di affinamento potrebbe richiedere diverse centinaia di milioni di dollari nei prossimi cinque anni.
Paesi come l’Australia e Singapore hanno già fatto investimenti significativi per l’IA e la riforma normativa, mentre la Nuova Zelanda non ha un budget dedicato all’IA né un’autorità centrale equivalente a quelle di altri paesi.
Governance e sovranità
La questione non riguarda solo l’allineamento normativo, ma anche la sovranità. Se i mercati principali come l’Europa stabiliscono soglie di conformità, i fornitori si adatteranno a quegli standard. Se la Nuova Zelanda non definisce le proprie aspettative legislative e istituzionali, le assunzioni operative incorporate nei sistemi di IA saranno sempre più modellate altrove.
È essenziale che la governance in Nuova Zelanda rifletta anche il suo contesto costituzionale biculturale. I principi di sovranità dei dati Maori enfatizzano la custodia e i diritti collettivi sui dati, e un modello normativo importato non rifletterà automaticamente tali obblighi.
Conclusione
In sintesi, la Nuova Zelanda deve affrontare la sfida di sviluppare una legislazione adeguata e capacità sovrane in materia di IA. Ciò non solo garantirà il controllo sull’uso dell’IA nei settori critici, ma permetterà anche di affrontare le sfide future in un panorama tecnologico in rapida evoluzione.