Chiarimenti della Commissione Europea sulla Definizione di Sistemi AI
La Commissione Europea ha pubblicato delle linee guida che chiariscono la definizione di sistemi AI ai sensi dell’AI Act, analizzando ciascun componente della definizione di sistema AI, fornendo esempi e specificando quali sistemi dovrebbero essere esclusi dall’ambito della definizione. Sebbene non siano vincolanti, queste indicazioni rappresentano uno strumento utile per le aziende per valutare se rientrano nell’ambito di applicazione dell’AI Act.
La Commissione ha approvato queste linee guida, ma non le ha ancora formalmente adottate.
Come definisce l’AI Act i Sistemi AI?
L’Articolo 3(1) dell’AI Act definisce i sistemi AI come segue: “Il sistema AI è un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.” Il considerando 12 dell’AI Act fornisce orientamenti interpretativi non vincolanti riguardo alla definizione di un sistema AI, che le linee guida della Commissione UE supportano ulteriormente.
La Commissione UE identifica e chiarisce i seguenti sette componenti della definizione di un sistema AI ai sensi dell’AI Act.
1. I sistemi AI sono sistemi basati su macchina.
Le linee guida chiariscono che il termine “basato su macchina” si riferisce all’integrazione di componenti hardware e software che consentono a questi sistemi di funzionare, sottolineando il fatto che i sistemi devono essere guidati da computazione e basati su operazioni di macchina.
2. I sistemi AI devono avere un certo grado di autonomia.
Il considerando 12 dell’AI Act specifica che i sistemi AI dovrebbero avere “un certo grado di indipendenza dalle azioni umane e di capacità di operare senza intervento umano.” La Commissione UE elabora che il concetto di un sistema AI esclude quindi sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano. Tale coinvolgimento umano può essere diretto, ad esempio, tramite controlli manuali, o indiretto, ad esempio, tramite controlli basati su sistemi automatizzati.
3. I sistemi AI possono adattarsi dopo il dispiegamento.
La definizione di un sistema AI ai sensi dell’AI Act indica che un sistema può mostrare adattabilità dopo il dispiegamento. Il considerando 12 chiarisce che l’“adattabilità” si riferisce a capacità di autoapprendimento, consentendo al comportamento del sistema di cambiare durante l’uso. Le linee guida chiariscono che la capacità di adattarsi non è un requisito obbligatorio per un sistema perché possa costituire un sistema AI regolato dall’AI Act.
4. I sistemi AI sono progettati per operare secondo obiettivi.
Le linee guida specificano che gli obiettivi del sistema possono essere espliciti (cioè obiettivi chiaramente dichiarati che il sviluppatore codifica direttamente nel sistema) o impliciti (cioè obiettivi che non sono esplicitamente dichiarati ma possono essere dedotti dal comportamento o dalle assunzioni sottostanti del sistema).
5. I sistemi AI devono essere in grado di inferire output.
Questo è un elemento chiave della definizione di “sistemi AI” e una parte importante delle linee guida. Il considerando 12 dell’AI Act stabilisce che la definizione di sistemi AI mira, in particolare, a distinguere i sistemi AI da sistemi software tradizionali più semplici e non dovrebbe coprire sistemi basati su regole definite esclusivamente da persone fisiche per eseguire operazioni automaticamente.
La Commissione Europea chiarisce come valutare la capacità di inferire output e cosa dovrebbe essere considerato un sistema AI in grado di inferire output. In generale, l’inferenza si riferisce alla capacità di un sistema AI di creare (inferire) output dagli input ricevuti senza essere vincolato unicamente da regole definite dall’uomo.
6. Gli output del sistema AI devono essere in grado di influenzare ambienti fisici o virtuali.
La Commissione UE descrive i quattro tipi di output elencati nella definizione di un sistema AI (previsioni, creazione di contenuti, raccomandazioni e decisioni). Specifica che i sistemi AI possono generare output più sfumati rispetto ad altri sistemi, ad esempio, sfruttando i modelli appresi durante l’addestramento o utilizzando regole definite da esperti per prendere decisioni.
7. I sistemi AI devono essere in grado di interagire con l’ambiente.
La Commissione UE specifica che questo elemento della definizione significa che i sistemi AI sono attivi, non passivi. La menzione di “ambienti fisici o virtuali” indica che un sistema AI può influenzare oggetti tangibili, come un braccio robotico, e contesti virtuali, come spazi digitali, flussi di dati e ecosistemi software.
Cosa viene dopo?
Come parte della loro valutazione su come e se l’AI Act possa applicarsi ai loro prodotti e operazioni, le organizzazioni dovrebbero valutare i sistemi AI che sviluppano e/o utilizzano in conformità alla definizione di sistema AI nell’Atto e nelle linee guida. Questa valutazione, in particolare riguardo al componente di capacità di inferenza della definizione, dovrebbe essere condotta sia dai team legali che da quelli tecnici.