La legge italiana sull’IA: un modello per il Regno Unito

La nuova legge sull’IA in Italia: cosa prevede e perché il Regno Unito dovrebbe prestare attenzione

Il 17 settembre 2025, l’Italia è diventata il primo stato membro dell’UE ad approvare una legge nazionale sull’intelligenza artificiale, che completa l’Atto sull’IA dell’UE. Questa legislazione segue la “Strategia Nazionale sull’IA” dell’Italia, che già nel 2020 aveva evidenziato la necessità di un quadro normativo etico per garantire trasparenza, responsabilità e affidabilità al fine di stimolare la fiducia dei cittadini e il coinvolgimento in un ecosistema IA fiorente.

Obiettivi della legge

La legge mira a stabilire guardrail centrati sull’essere umano per il dispiegamento dell’IA, incoraggiando al contempo l’innovazione in tutta l’economia. La sua combinazione di regole settoriali, aggiornamenti del diritto penale, chiarimenti sul copyright e scelte istituzionali offre un playbook (e alcune avvertenze) per altri paesi, incluso il Regno Unito, mentre calibra il proprio percorso.

Riepilogo delle disposizioni chiave

  • Monitoraggio umano e tracciabilità: Le decisioni assistite dall’IA devono rimanere soggette a supervisione umana e tracciabilità. Ad esempio, nel settore sanitario, i professionisti medici devono prendere decisioni relative a prevenzione, diagnosi, trattamento e scelte terapeutiche, informando i pazienti sull’uso di tecnologie IA.
  • Accesso da parte dei minori: I bambini sotto i 14 anni possono accedere all’IA solo con il consenso dei genitori.
  • Pene penali: La legge introduce un nuovo reato per la diffusione illecita di contenuti generati o manipolati dall’IA (ad es. deepfake), con pene detentive da uno a cinque anni in caso di danno ingiusto e inasprisce le pene quando l’IA viene utilizzata per commettere reati esistenti, come la manipolazione del mercato.
  • Governance e applicazione: Due enti governativi esistenti – l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia Nazionale per la Cybersecurity (ACN) – sono designati per far rispettare la legge. Nel frattempo, il Dipartimento per la Trasformazione Digitale guiderà una strategia nazionale per l’IA.
  • Segnale di investimento: Sono previsti fino a €1 miliardo per sostenere le aziende nell’IA, nella cybersecurity, nelle tecnologie quantistiche e nelle telecomunicazioni.
  • Copyright: I lavori creati con “assistenza IA” sono idonei alla protezione se derivano da “genuine human intellectual effort”. La legge afferma che le estrazioni di testo o le riproduzioni da opere su Internet o in database per l’estrazione di testi e dati attraverso modelli e sistemi di intelligenza artificiale sono consentite, a condizione che siano rispettati i principi della legislazione italiana.

Perché questo è rilevante per il Regno Unito

Nonostante la richiesta dell’ex Primo Ministro italiano, Mario Draghi, di sospendere il tier ad alto rischio dell’Atto sull’IA, l’Italia ha promulgato una legge per integrare tali obblighi, suggerendo che gli stati membri sono disposti a procedere a livello nazionale piuttosto che attendere una ulteriore calibrazione a livello UE. La legge italiana integra i principi dell’Atto sull’IA dell’UE con ulteriori doveri operativi e settoriali e reati penali granulari, aggiungendo complessità al quadro normativo dell’UE.

Storicamente, i regolatori britannici hanno sostenuto un approccio pro-innovazione più flessibile, e il Regno Unito probabilmente continuerà con un approccio di “attesa e osservazione”. Tuttavia, un insieme di misure nazionali simili in tutto l’UE potrebbe esercitare pressione sul Regno Unito per allinearsi al fine di ridurre le frizioni, in particolare riguardo alle sanzioni penali e alla protezione dei minori.

Le aziende che offrono IA nell’UE potrebbero dover iniziare a pianificare obblighi specifici per paese che potrebbero applicarsi prima delle scadenze chiave dell’Atto sull’IA, adottando una base EU-plus (nucleo dell’Atto sull’IA più add-on nazionali) per mitigare il rischio di frammentazione e applicazione.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...