Pavimentare la strada per un uso sicuro e innovativo dell’IA in Norvegia
Il governo norvegese sta preparando il paese per l’implementazione e l’applicazione di nuove regole sull’intelligenza artificiale (IA). KI-Norge (letteralmente “IA Norvegia”), una nuova arena nazionale per un uso innovativo e responsabile dell’IA, sarà una componente fondamentale nel sistema di governance nazionale che sta attualmente emergendo.
Con l’introduzione del Regolamento dell’UE sull’intelligenza artificiale, noto come AI Act, viene definito il quadro normativo per consentire a imprese e settore pubblico di utilizzare questa tecnologia in modi innovativi ed eticamente responsabili.
Annuncio del Ministro della Digitalizzazione e della Governance Pubblica
Il Ministro della Digitalizzazione e della Governance Pubblica, Karianne Tung, ha annunciato la notizia nel laboratorio di IA di DNB, insieme al CEO di DNB, Kjerstin Braathen. Il Ministro ha comunicato che un progetto di legge sarà circolato per commenti prima dell’estate, con l’obiettivo che la legge norvegese entri in vigore entro la fine dell’estate 2026.
“Il governo sta assicurando che la Norvegia possa sfruttare le opportunità offerte dallo sviluppo e dall’uso dell’intelligenza artificiale, e siamo sulla stessa linea di partenza del resto dell’UE. Allo stesso tempo, vogliamo garantire la fiducia pubblica nell’uso di questa tecnologia. È quindi importante che la Norvegia disponga di una solida struttura nazionale di governance per l’applicazione delle regole sull’IA”, afferma il Ministro.
Opportunità e sfide dell’IA
L’intelligenza artificiale è già ampiamente utilizzata e la tecnologia può fornire strumenti per affrontare molte delle sfide principali nei settori della salute, industria e istruzione. Tuttavia, questa tecnologia ha anche potenzialità di abuso, specialmente in questi tempi di incertezze globali e conflitti.
“L’AI Act dell’UE renderà più facile per le aziende norvegesi competere, poiché seguiremo le stesse regole del resto d’Europa. Ciò garantirà sia innovazione che responsabilità, elementi essenziali per costruire competenza e fiducia tra clienti e imprese”, aggiunge il Ministro del Commercio e dell’Industria, Cecilie Myrseth.
Istituzione di IA Norvegia – un’arena nazionale per un’intelligenza artificiale innovativa e responsabile
Il governo sta rafforzando gli sforzi nazionali della Norvegia nel campo dell’intelligenza artificiale creando IA Norvegia – un’arena nazionale per un’intelligenza artificiale innovativa e responsabile. IA Norvegia sarà istituita come un nuovo ambiente esperto ampliato all’interno dell’Agenzia norvegese per la digitalizzazione (Digdir).
IA Norvegia sarà un motore e un servizio di consulenza, fungendo da collegamento e partner tra i principali attori dell’IA nel settore pubblico, nel commercio e nell’industria, nel settore della ricerca e nell’accademia.
“L’istituzione di IA Norvegia segna un cambio di passo nell’uso e nello sviluppo dell’intelligenza artificiale. Uno strumento centrale in questo lavoro sarà l’AI Sandbox, dove le aziende norvegesi possono sperimentare, sviluppare e addestrare sistemi di IA in un ambiente sicuro. L’obiettivo è aumentare la competitività e creare maggiori opportunità per i sistemi di IA norvegesi. Questo sarà particolarmente vantaggioso per le start-up e le piccole e medie imprese”, afferma Tung.
Norsk akkreditering sarà l’ente di accreditamento nazionale ai sensi delle normative UE
Norsk akkreditering (NA) è l’ente nazionale norvegese per l’accreditamento tecnico, ed è stato ora assegnato anche questo ruolo in relazione all’AI Act europeo. Assegnando questo ruolo richiesto dal AI Act dell’UE al NA, stiamo costruendo sul sistema già in uso nell’amministrazione pubblica norvegese oggi.
La Norwegian Communications Authority (Nkom) avrà la responsabilità di supervisione
Il governo ha deciso che la Norwegian Communications Authority (Nkom) sarà l’autorità di supervisione nazionale coordinatrice per l’IA, con la responsabilità di garantire che le nuove regole dell’UE sull’intelligenza artificiale vengano seguite in modo uniforme in Norvegia. Insieme alle varie autorità di settore responsabili, Nkom monitorerà che i sistemi di IA utilizzati nel mercato norvegese siano sicuri, protetti e responsabili.
Nkom sarà anche il punto di contatto nazionale unico con le autorità dell’UE e con altri paesi, e aiuterà a garantire che le normative siano comprese e praticate in modo armonioso oltre i confini nazionali.
“La Norwegian Communications Authority (Nkom) ha ricevuto un ruolo importante nella supervisione della conformità alle regole dell’UE sull’intelligenza artificiale in Norvegia. È fondamentale che la società nel suo complesso possa avere fiducia che l’intelligenza artificiale sia sviluppata in linea con i nostri valori e regole europei condivisi”, afferma Tung.
Punti chiave dell’AI Act dell’UE
– L’AI Act dell’UE è il primo regolamento completo al mondo nel campo dell’intelligenza artificiale. Garantisce l’armonizzazione tra gli Stati membri, semplificando la comprensione di ciò che è richiesto per garantire che lo sviluppo e l’uso di questa tecnologia siano sicuri ed eticamente solidi. È anche destinato a promuovere l’innovazione.
– La legge incoraggia un’IA sicura ed etica che tuteli la salute, la sicurezza, i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale. Questo contribuirà a aumentare la fiducia e la fiducia pubblica in questo tipo di tecnologia.
– La legge stabilisce requisiti diversi per i sistemi di IA in base al livello di rischio che comportano.
– Alcuni sistemi di IA presentano rischi inaccettabili e sono stati vietati nell’UE a partire dal 2 febbraio 2025. Questi sistemi violano valori e diritti fondamentali, ad esempio attraverso la manipolazione, sfruttando le vulnerabilità delle persone o categorizzando le persone in modi che possono avere conseguenze negative per loro.
– I sistemi di IA ad alto rischio sono soggetti a requisiti rigorosi. Questi tipi di sistemi possono avere un impatto negativo significativo sui diritti umani fondamentali delle persone. Ci sono relativamente pochi sistemi ad alto rischio, quindi il bisogno generale di innovazione nella società non sarà significativamente influenzato.
– I sistemi di IA a rischio limitato devono rispettare obblighi di trasparenza. Lo scopo di tali obblighi è garantire che gli utenti si rendano conto di interagire con l’IA.
– I modelli di IA per uso pubblico devono rispettare una serie di requisiti speciali, come gli obblighi di trasparenza e il rispetto delle norme sul copyright. Un esempio di modelli di IA per uso pubblico sono i modelli di linguaggio generativo di grandi dimensioni.
– La maggior parte dei sistemi di IA presenta rischi minimi e la legge non stabilisce alcun obbligo per questi tipi di sistemi. Ciò offre opportunità per un alto grado di innovazione in diversi settori, in particolare per i sistemi volti a semplificare e migliorare l’efficienza dei processi.