Regolamentazione dell’IA in Italia: stato attuale e prospettive future

AI Watch: Tracciamento Normativo Globale – Italia

La situazione attuale riguardo alla regolamentazione dell’intelligenza artificiale (IA) in Italia è caratterizzata da un’assenza di leggi specifiche che regolano direttamente l’IA. Tuttavia, come per tutti gli Stati membri dell’UE, l’EU AI Act rappresenterà la legislazione centrale generale e trasversale dell’IA in Italia.

Si prevede che l’Italia adotti una propria regolamentazione sull’IA, attualmente in fase di discussione in Parlamento. Inoltre, non esistono leggi specifiche per settori che regolano l’IA in modo diretto.

Stato delle Regolazioni dell’IA

Il Senato ha approvato, il 20 marzo 2025, in prima lettura, il disegno di legge intitolato “Disposizioni e Deleghe al Governo in materia di Intelligenza Artificiale”. Anche se sponsorizzato dal Governo, il disegno di legge manca ancora di un consenso politico completo.

Il disegno di legge stabilisce criteri regolatori e principi generali per bilanciare le opportunità offerte dalle nuove tecnologie e i rischi associati al loro uso improprio. Si sottolinea che non ci sarà alcun rischio di sovrapposizione con l’EU AI Act, poiché il disegno di legge “complementa il quadro normativo nelle aree di competenza nazionale”.

Altre Leggi che Influenzano l’IA

L’ (DPA) ha adottato, il 20 maggio 2024, una comunicazione sull’uso del web scraping per la formazione dei modelli di IA e per contrastare l’uso improprio dei dati personali. Inoltre, dal 2021, la DPA ha istituito un’unità organizzativa specifica dedicata all’IA.

Le corti e i regolatori italiani hanno iniziato a interpretare le leggi esistenti in relazione all’IA. Ci sono varie leggi che, pur non cercando di regolare direttamente l’IA, possono influenzare lo sviluppo o l’uso dell’IA in Italia, come il GDPR e il Codice della Privacy italiano.

Definizione di “IA”

Non essendoci leggi specifiche che regolano direttamente l’IA in Italia, non esiste attualmente una definizione di IA riconosciuta dalla legislazione nazionale. Il disegno di legge sull’IA fa riferimento alle definizioni stabilite nell’EU AI Act.

Ambito Territoriale e Settoriale

Il disegno di legge si applicherà allo sviluppo e all’implementazione di sistemi e modelli di IA all’interno del territorio italiano. Tuttavia, non esiste un ambito settoriale specifico al momento.

Ruoli di Conformità

Secondo un giudizio del 2019, il processo decisionale algoritmico nelle procedure amministrative deve considerare:

  • Trasparenza riguardo all’esistenza di una decisione automatizzata e informazioni sulla logica utilizzata.
  • Coinvolgimento umano nella decisione, se questa produce effetti legali significativi su un individuo.
  • Garantire la non discriminazione attraverso misure tecniche e organizzative adeguate.

Il disegno di legge stabilisce che lo sviluppo e l’implementazione dei sistemi di IA devono rispettare i diritti fondamentali sanciti dalla Costituzione italiana e dal diritto dell’UE.

Questioni Chiave delle Regolazioni dell’IA

La corte amministrativa più alta d’Italia ha cercato di affrontare questioni riguardanti la trasparenza, la supervisione umana e la non discriminazione in un giudizio del 2019. Il governo italiano ha rilasciato la Strategia Nazionale per l’IA (2022-2024), identificando tre aree d’azione fondamentali: rafforzare l’expertise e attrarre talenti, aumentare i finanziamenti per la ricerca avanzata e promuovere l’adozione dell’IA.

Categorizzazione del Rischio

Attualmente non esiste una categorizzazione del rischio specifica per l’IA in Italia, eccetto quelle introdotte dall’EU AI Act. Tuttavia, il disegno di legge non elabora una categorizzazione diversa da quella dell’EU AI Act.

Requisiti di Conformità Chiave

Le esigenze di conformità chiave riguardano la trasparenza, il coinvolgimento umano e la non discriminazione. Il disegno di legge è pertinente a specifici settori, come delineato in precedenza.

Regolatori e Potere di Esecuzione

Attualmente, la regolazione dell’IA è affidata agli organismi preesistenti. La DPA ha già intervenuto per regolare due aziende di IA per violazioni della normativa sulla protezione dei dati. Il disegno di legge designa l’ come autorità di notifica e supervisione, e la National Cybersecurity Agency (ACN) come autorità di supervisione per l’uso dell’IA in materia di cybersecurity.

Il disegno di legge consente al governo di adottare decreti per definire il potere sanzionatorio delle autorità designate per l’IA.

More Insights

Classifica il tuo sistema AI in pochi minuti

L'EU AI Act cambierà il modo in cui l'IA viene costruita, valutata e distribuita in Europa. Per facilitare la classificazione del rischio dei sistemi di intelligenza artificiale, è disponibile un...

Intelligenza artificiale e armonizzazione legale a Yokohama

L'Associazione Internazionale per la Protezione della Proprietà Intellettuale (AIPPI) si riunirà a Yokohama dal 13 al 16 settembre 2025, affrontando temi cruciali come l'intelligenza artificiale e il...

Legge sull’Intelligenza Artificiale in Colorado: Impatti e Responsabilità per le Aziende

La settimana scorsa, i legislatori del Colorado hanno tenuto una sessione speciale che ha portato a una decisione di posticipare l'implementazione della Colorado Artificial Intelligence Act (CAIA)...

Sorveglianza AI: Sicurezza e Privacy in Equilibrio

La sorveglianza guidata dall'IA offre vantaggi operativi reali, ma presenta anche rischi significativi per la privacy e le libertà civili. È fondamentale trovare un equilibrio umano che rispetti i...

AI Responsabile nel Settore Finanziario: Dalla Teoria alla Pratica

La discussione globale sull'intelligenza artificiale è entrata in una nuova fase, spostandosi verso la domanda su come utilizzare questi strumenti in modo responsabile, specialmente nei servizi...

Costruire AI di fiducia per un futuro sostenibile

La certificazione può trasformare la regolamentazione da un vincolo a un'opportunità, facilitando l'adozione di AI fidate e sostenibili. Con normative come l'AI Act dell'Unione Europea, le aziende che...

Intelligenza Artificiale Spiegabile: Costruire Fiducia nel Futuro

L'Intelligenza Artificiale Spiegabile (XAI) è essenziale per costruire fiducia, garantire trasparenza e consentire responsabilità in settori ad alto rischio come la sanità e la finanza. Le normative...

Regolamentare l’IA: Rischi e Opportunità per il Futuro

L'intelligenza artificiale è la tecnologia rivoluzionaria più trasformativa della nostra era, ma porta con sé enormi rischi. Senza una regolamentazione adeguata, questi rischi possono minare la...

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...