Italia guida la regolamentazione nazionale dell’IA

Legge n. 132 del 23 settembre 2025: L’Italia guida la regolamentazione nazionale dell’IA

Con l’approvazione della Legge n. 132 del 23 settembre 2025, l’Italia diventa il primo stato membro dell’Unione Europea ad aver adottato una legge completa e specifica per conformarsi alle disposizioni del Regolamento UE n. 2024/1689, anticipando l’entrata in vigore di tale regolamento e stabilendo un quadro nazionale per la governance, supervisione e supporto all’innovazione nel campo dell’Intelligenza Artificiale (IA).

Contesto

Il Disegno di Legge 1146/24 ha ricevuto vari pareri dalle autorità di settore, inclusa il Garante per la protezione dei dati personali e la Commissione Europea. Quest’ultima, nel suo parere del 12 settembre 2024, ha evidenziato la necessità di maggiore coerenza con l’IA Act e di una maggiore apertura verso l’uso dell’intelligenza artificiale. Il testo, modificato in parte secondo le raccomandazioni ricevute, è stato approvato dal Parlamento italiano il 17 settembre 2025 e pubblicato nella Gazzetta Ufficiale n. 223 del 25 settembre 2025.

I settori interessati

La prima sezione della Legge, dedicata ai principi generali, introduce una strategia nazionale sull’IA, che sarà aggiornata ogni due anni dal Comitato Interministeriale per la Transizione Digitale con il supporto del Dipartimento per la Trasformazione Digitale della Presidenza del Consiglio dei Ministri. Questa strategia servirà come riferimento per le decisioni politiche e normative sull’IA.

La seconda sezione contiene regole per singoli settori, indicando aree e modalità di utilizzo dell’IA. In particolare, nel settore sanitario e nella ricerca scientifica, l’IA è consentita come strumento di supporto, ma non può essere utilizzata per discriminare o decidere l’accesso ai trattamenti; il ruolo umano rimane centrale, con gli esseri umani responsabili delle decisioni finali. La ricerca pubblica e privata senza scopo di lucro è classificata come di significativo interesse pubblico, consentendo il trattamento dei dati personali senza consenso, previo approvazione dei comitati etici e notifica al Garante.

Settore del lavoro

Nel settore del lavoro, la Legge introduce specifiche salvaguardie per la gestione dei processi di selezione, valutazione e monitoraggio dei lavoratori utilizzando sistemi di IA. Stabilisce obblighi di trasparenza per i datori di lavoro, il diritto all’informazione per i dipendenti e la necessità di valutazioni d’impatto per prevenire discriminazioni algoritmiche.

Inoltre, la Legge istituisce un osservatorio sull’impatto dell’IA sul lavoro, con l’obiettivo di massimizzare i benefici e mitigare i rischi derivanti dall’uso dei sistemi di intelligenza artificiale nei luoghi di lavoro e promuovere la formazione per lavoratori e datori di lavoro nel campo dell’intelligenza artificiale.

Settore della giustizia

Nel settore della giustizia, la legislazione stabilisce criteri rigorosi per l’uso dei sistemi di IA nella sfera giudiziaria, sia per la gestione dei casi che per il supporto decisionale. La supervisione umana è rafforzata e l’uso dell’IA per attività interpretative è vietato: l’uso di strumenti di analisi automatica è limitato a scopi organizzativi, di semplificazione del lavoro e amministrativi, garantendo così la piena protezione del diritto di difesa e della riservatezza delle parti.

Proprietà intellettuale

La Legge specifica che è riconosciuta anche la protezione del diritto d’autore per le opere “create con l’ausilio dell’intelligenza artificiale”, a condizione che siano il risultato del lavoro intellettuale dell’autore. Si chiarisce quindi che il materiale generato esclusivamente dall’IA non è soggetto a protezione. La riproduzione e l’estrazione di testi e dati utilizzando l’IA è consentita se le fonti sono legittimamente accessibili.

Governance

In termini di governance, la strategia nazionale per l’IA è affidata alla Presidenza del Consiglio dei Ministri, con il coinvolgimento dell’Agid e dell’Agenzia Nazionale per la Cybersecurity come autorità nazionali, e le autorità di vigilanza settoriali (Banca d’Italia, CONSOB, IVASS), nell’ambito delle rispettive competenze. Particolare attenzione è riservata alla cybersecurity, considerata un prerequisito essenziale durante il ciclo di vita dei sistemi e modelli di IA.

A livello istituzionale, il coordinamento tra le autorità nazionali (Agid/ACN, autorità settoriali) e il Garante per la protezione dei dati sarà decisivo per allineare le valutazioni dei rischi dei sistemi di IA, anche dal punto di vista del GDPR e delle valutazioni di impatto etico.

Interconnessioni con l’IA Act, NIS2 e GDPR

La Legge copre in modo decisivo le aree lasciate fuori dall’IA Act: identifica le autorità di vigilanza e i poteri, regola le ispezioni, supporta le PMI e le pubbliche amministrazioni e definisce sanzioni per comportamenti non pienamente armonizzati (ad es. deepfake). Anche all’interno dei vincoli dell’armonizzazione europea, il legislatore nazionale alza il livello sulle salvaguardie organizzative e i requisiti “procedurali” (trasparenza, controlli, formazione, documentazione), estendendoli a casi a basso rischio e settori sensibili come lavoro, salute e giustizia.

Per quanto riguarda l’IA generativa e i deepfake, l’Italia adotta un approccio più prescrittivo: introduce reati penali e meccanismi per la tracciabilità e autenticità dei contenuti, mentre l’IA Act favorisce gli obblighi informativi e i codici di condotta (con requisiti rafforzati per i sistemi che presentano rischi sistemici). Il risultato è un modello integrato con il GDPR, NIS2 e le norme settoriali, che mira a tradurre le clausole generali europee in controlli operativi verificabili.

Conclusioni

In termini concreti, la conformità dipenderà dalla capacità di orchestrare governance e controlli. Tra le priorità per le aziende, possiamo certamente identificare la necessità di:

  • mappare i sistemi e classificare i rischi;
  • integrare le valutazioni d’impatto sulla protezione dei dati (DPIA);
  • definire ruoli e responsabilità di sviluppatori e utenti;
  • includere clausole contrattuali “pronte per l’IA Act” nella catena di fornitura;
  • implementare misure tecniche, anche per la mappatura dei contenuti e la gestione degli incidenti e delle segnalazioni.

Infine, è necessaria una monitoraggio attivo degli atti esecutivi europei e delle linee guida nazionali (incluso quelle del Garante per la protezione dei dati), poiché questi standard daranno origine a criteri di valutazione, parametri tecnici e priorità di ispezione. Coloro che agiscono ora non solo ridurranno il rischio di sanzioni, ma guadagneranno anche un vantaggio competitivo: trasformando la conformità in un requisito di qualità, sicurezza e affidabilità dei sistemi di IA.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...