Chiarimenti dell’UE sulla Definizione dei Sistemi AI

Chiarimenti della Commissione Europea sulla Definizione di Sistemi AI

La Commissione Europea ha pubblicato delle linee guida che chiariscono la definizione di sistemi AI ai sensi dell’AI Act, analizzando ciascun componente della definizione di sistema AI, fornendo esempi e specificando quali sistemi dovrebbero essere esclusi dall’ambito della definizione. Sebbene non siano vincolanti, queste indicazioni rappresentano uno strumento utile per le aziende per valutare se rientrano nell’ambito di applicazione dell’AI Act.

La Commissione ha approvato queste linee guida, ma non le ha ancora formalmente adottate.

Come definisce l’AI Act i Sistemi AI?

L’Articolo 3(1) dell’AI Act definisce i sistemi AI come segue: “Il sistema AI è un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.” Il considerando 12 dell’AI Act fornisce orientamenti interpretativi non vincolanti riguardo alla definizione di un sistema AI, che le linee guida della Commissione UE supportano ulteriormente.

La Commissione UE identifica e chiarisce i seguenti sette componenti della definizione di un sistema AI ai sensi dell’AI Act.

1. I sistemi AI sono sistemi basati su macchina.

Le linee guida chiariscono che il termine “basato su macchina” si riferisce all’integrazione di componenti hardware e software che consentono a questi sistemi di funzionare, sottolineando il fatto che i sistemi devono essere guidati da computazione e basati su operazioni di macchina.

2. I sistemi AI devono avere un certo grado di autonomia.

Il considerando 12 dell’AI Act specifica che i sistemi AI dovrebbero avere “un certo grado di indipendenza dalle azioni umane e di capacità di operare senza intervento umano.” La Commissione UE elabora che il concetto di un sistema AI esclude quindi sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano. Tale coinvolgimento umano può essere diretto, ad esempio, tramite controlli manuali, o indiretto, ad esempio, tramite controlli basati su sistemi automatizzati.

3. I sistemi AI possono adattarsi dopo il dispiegamento.

La definizione di un sistema AI ai sensi dell’AI Act indica che un sistema può mostrare adattabilità dopo il dispiegamento. Il considerando 12 chiarisce che l’“adattabilità” si riferisce a capacità di autoapprendimento, consentendo al comportamento del sistema di cambiare durante l’uso. Le linee guida chiariscono che la capacità di adattarsi non è un requisito obbligatorio per un sistema perché possa costituire un sistema AI regolato dall’AI Act.

4. I sistemi AI sono progettati per operare secondo obiettivi.

Le linee guida specificano che gli obiettivi del sistema possono essere espliciti (cioè obiettivi chiaramente dichiarati che il sviluppatore codifica direttamente nel sistema) o impliciti (cioè obiettivi che non sono esplicitamente dichiarati ma possono essere dedotti dal comportamento o dalle assunzioni sottostanti del sistema).

5. I sistemi AI devono essere in grado di inferire output.

Questo è un elemento chiave della definizione di “sistemi AI” e una parte importante delle linee guida. Il considerando 12 dell’AI Act stabilisce che la definizione di sistemi AI mira, in particolare, a distinguere i sistemi AI da sistemi software tradizionali più semplici e non dovrebbe coprire sistemi basati su regole definite esclusivamente da persone fisiche per eseguire operazioni automaticamente.

La Commissione Europea chiarisce come valutare la capacità di inferire output e cosa dovrebbe essere considerato un sistema AI in grado di inferire output. In generale, l’inferenza si riferisce alla capacità di un sistema AI di creare (inferire) output dagli input ricevuti senza essere vincolato unicamente da regole definite dall’uomo.

6. Gli output del sistema AI devono essere in grado di influenzare ambienti fisici o virtuali.

La Commissione UE descrive i quattro tipi di output elencati nella definizione di un sistema AI (previsioni, creazione di contenuti, raccomandazioni e decisioni). Specifica che i sistemi AI possono generare output più sfumati rispetto ad altri sistemi, ad esempio, sfruttando i modelli appresi durante l’addestramento o utilizzando regole definite da esperti per prendere decisioni.

7. I sistemi AI devono essere in grado di interagire con l’ambiente.

La Commissione UE specifica che questo elemento della definizione significa che i sistemi AI sono attivi, non passivi. La menzione di “ambienti fisici o virtuali” indica che un sistema AI può influenzare oggetti tangibili, come un braccio robotico, e contesti virtuali, come spazi digitali, flussi di dati e ecosistemi software.

Cosa viene dopo?

Come parte della loro valutazione su come e se l’AI Act possa applicarsi ai loro prodotti e operazioni, le organizzazioni dovrebbero valutare i sistemi AI che sviluppano e/o utilizzano in conformità alla definizione di sistema AI nell’Atto e nelle linee guida. Questa valutazione, in particolare riguardo al componente di capacità di inferenza della definizione, dovrebbe essere condotta sia dai team legali che da quelli tecnici.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...