Leggi e Intelligenza Artificiale: Nuove Frontiere di Regolamentazione

Newsletter Legale su Rischio e Governance (Febbraio 2025)

Il 12 luglio 2024, l’UE ha ufficialmente pubblicato il Regolamento (UE) 2024/1689, noto come Legge sull’Intelligenza Artificiale (AI Act). Questo segna il primo quadro giuridico completo al mondo che governa l’IA.

Le discussioni sull’AI Act erano in corso sin da quando la Commissione Europea ha inizialmente proposto la legislazione il 21 aprile 2021. L’avanzamento rapido dell’IA generativa e di altre tecnologie ha reso necessarie continue aggiornamenti alla proposta. Alla fine, l’AI Act è stato formalmente adottato dopo aver ricevuto l’approvazione dal Consiglio dell’UE il 21 maggio 2024.

L’AI Act è entrato in vigore il 1 agosto 2024, con la maggior parte delle sue disposizioni che entreranno in vigore dal 2 agosto 2026. Tuttavia, alcune disposizioni saranno applicate in tempi diversi, come appropriato.

1. Passo 1: Identificazione del Sistema IA

L’AI Act regola principalmente i sistemi IA e i modelli IA generali. Le rispettive definizioni nel contesto dell’AI Act sono le seguenti:

Sistema IA: un sistema basato su macchina progettato per operare con vari livelli di autonomia, che può mostrare adattamento dopo il dispiegamento.

Modello IA Generale: un modello IA che mostra una significativa generalità e può eseguire una vasta gamma di compiti distinti.

2. Passo 2: Identificazione delle Persone Regolate

L’AI Act si applica a vari stakeholders coinvolti con i sistemi IA. Le principali parti regolate sono:

  • Fornitori: coloro che immettono sul mercato o mettono in servizio sistemi IA.
  • Utilizzatori: coloro che utilizzano un sistema IA sotto la propria autorità.

3. Passo 3: Idoneità all’Esenzione

L’AI Act prevede disposizioni di esenzione per alcuni sistemi IA. Se un sistema IA soddisfa i requisiti normativi, potrebbe non essere soggetto a regolamentazione se qualifica per un’esenzione.

4. Passo 4: Categorizzazione del Sistema IA

L’AI Act adotta un approccio basato sul rischio, categorizzando i sistemi IA in base alla magnitudine dei rischi che pongono. Le categorie includono:

  • Pratica IA Proibita: pratiche con il potenziale di causare danni significativi.
  • Sistema IA ad Alto Rischio: sistemi che richiedono obblighi di conformità più rigorosi.
  • Sistema IA a Rischio Limitato: sistemi soggetti a obblighi di trasparenza.
  • Altro Sistema IA: sistemi non regolati dall’AI Act.

5. Passo 5: Identificazione delle Normative Applicabili

Le normative applicabili variano a seconda della categoria identificata nel Passo 4. Ad esempio:

Pratica IA Proibita: vietata dall’immissione sul mercato.

Sistema IA ad Alto Rischio: soggetto a obblighi specifici come la creazione di un sistema di gestione del rischio.

6. Passo 6: Preparazioni per l’Implementazione

Il Regolamento entrerà in vigore in modo scaglionato, con specifiche date di attuazione per ogni categoria di sistema IA. Le aziende devono prepararsi per queste scadenze e garantire la conformità.

In conclusione, le aziende devono identificare e classificare i loro sistemi IA in base all’AI Act per garantire la conformità e mitigare i rischi associati all’uso dell’intelligenza artificiale.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...