Leggi e Intelligenza Artificiale: Nuove Frontiere di Regolamentazione

Newsletter Legale su Rischio e Governance (Febbraio 2025)

Il 12 luglio 2024, l’UE ha ufficialmente pubblicato il Regolamento (UE) 2024/1689, noto come Legge sull’Intelligenza Artificiale (AI Act). Questo segna il primo quadro giuridico completo al mondo che governa l’IA.

Le discussioni sull’AI Act erano in corso sin da quando la Commissione Europea ha inizialmente proposto la legislazione il 21 aprile 2021. L’avanzamento rapido dell’IA generativa e di altre tecnologie ha reso necessarie continue aggiornamenti alla proposta. Alla fine, l’AI Act è stato formalmente adottato dopo aver ricevuto l’approvazione dal Consiglio dell’UE il 21 maggio 2024.

L’AI Act è entrato in vigore il 1 agosto 2024, con la maggior parte delle sue disposizioni che entreranno in vigore dal 2 agosto 2026. Tuttavia, alcune disposizioni saranno applicate in tempi diversi, come appropriato.

1. Passo 1: Identificazione del Sistema IA

L’AI Act regola principalmente i sistemi IA e i modelli IA generali. Le rispettive definizioni nel contesto dell’AI Act sono le seguenti:

Sistema IA: un sistema basato su macchina progettato per operare con vari livelli di autonomia, che può mostrare adattamento dopo il dispiegamento.

Modello IA Generale: un modello IA che mostra una significativa generalità e può eseguire una vasta gamma di compiti distinti.

2. Passo 2: Identificazione delle Persone Regolate

L’AI Act si applica a vari stakeholders coinvolti con i sistemi IA. Le principali parti regolate sono:

  • Fornitori: coloro che immettono sul mercato o mettono in servizio sistemi IA.
  • Utilizzatori: coloro che utilizzano un sistema IA sotto la propria autorità.

3. Passo 3: Idoneità all’Esenzione

L’AI Act prevede disposizioni di esenzione per alcuni sistemi IA. Se un sistema IA soddisfa i requisiti normativi, potrebbe non essere soggetto a regolamentazione se qualifica per un’esenzione.

4. Passo 4: Categorizzazione del Sistema IA

L’AI Act adotta un approccio basato sul rischio, categorizzando i sistemi IA in base alla magnitudine dei rischi che pongono. Le categorie includono:

  • Pratica IA Proibita: pratiche con il potenziale di causare danni significativi.
  • Sistema IA ad Alto Rischio: sistemi che richiedono obblighi di conformità più rigorosi.
  • Sistema IA a Rischio Limitato: sistemi soggetti a obblighi di trasparenza.
  • Altro Sistema IA: sistemi non regolati dall’AI Act.

5. Passo 5: Identificazione delle Normative Applicabili

Le normative applicabili variano a seconda della categoria identificata nel Passo 4. Ad esempio:

Pratica IA Proibita: vietata dall’immissione sul mercato.

Sistema IA ad Alto Rischio: soggetto a obblighi specifici come la creazione di un sistema di gestione del rischio.

6. Passo 6: Preparazioni per l’Implementazione

Il Regolamento entrerà in vigore in modo scaglionato, con specifiche date di attuazione per ogni categoria di sistema IA. Le aziende devono prepararsi per queste scadenze e garantire la conformità.

In conclusione, le aziende devono identificare e classificare i loro sistemi IA in base all’AI Act per garantire la conformità e mitigare i rischi associati all’uso dell’intelligenza artificiale.

More Insights

Futuro dell’AI nella Farmacia: Opportunità e Sfide

Gli esperti prevedono difficoltà mentre il settore delle scienze della vita si adatta al Regolamento sull'IA dell'UE. Questo nuovo regolamento potrebbe presentare sfide per le aziende, ma ha anche il...

Governare l’era degli agenti AI: la chiave per il successo

Il CEO di Boomi, Steve Lucas, crede che le aziende debbano educare gli utenti sull'importanza di avere piani per monitorare e governare gli agenti di intelligenza artificiale. "Se non hai quel piano...

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...