Chiarimenti dell’UE sulla Definizione dei Sistemi AI

Chiarimenti della Commissione Europea sulla Definizione di Sistemi AI

La Commissione Europea ha pubblicato delle linee guida che chiariscono la definizione di sistemi AI ai sensi dell’AI Act, analizzando ciascun componente della definizione di sistema AI, fornendo esempi e specificando quali sistemi dovrebbero essere esclusi dall’ambito della definizione. Sebbene non siano vincolanti, queste indicazioni rappresentano uno strumento utile per le aziende per valutare se rientrano nell’ambito di applicazione dell’AI Act.

La Commissione ha approvato queste linee guida, ma non le ha ancora formalmente adottate.

Come definisce l’AI Act i Sistemi AI?

L’Articolo 3(1) dell’AI Act definisce i sistemi AI come segue: “Il sistema AI è un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.” Il considerando 12 dell’AI Act fornisce orientamenti interpretativi non vincolanti riguardo alla definizione di un sistema AI, che le linee guida della Commissione UE supportano ulteriormente.

La Commissione UE identifica e chiarisce i seguenti sette componenti della definizione di un sistema AI ai sensi dell’AI Act.

1. I sistemi AI sono sistemi basati su macchina.

Le linee guida chiariscono che il termine “basato su macchina” si riferisce all’integrazione di componenti hardware e software che consentono a questi sistemi di funzionare, sottolineando il fatto che i sistemi devono essere guidati da computazione e basati su operazioni di macchina.

2. I sistemi AI devono avere un certo grado di autonomia.

Il considerando 12 dell’AI Act specifica che i sistemi AI dovrebbero avere “un certo grado di indipendenza dalle azioni umane e di capacità di operare senza intervento umano.” La Commissione UE elabora che il concetto di un sistema AI esclude quindi sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano. Tale coinvolgimento umano può essere diretto, ad esempio, tramite controlli manuali, o indiretto, ad esempio, tramite controlli basati su sistemi automatizzati.

3. I sistemi AI possono adattarsi dopo il dispiegamento.

La definizione di un sistema AI ai sensi dell’AI Act indica che un sistema può mostrare adattabilità dopo il dispiegamento. Il considerando 12 chiarisce che l’“adattabilità” si riferisce a capacità di autoapprendimento, consentendo al comportamento del sistema di cambiare durante l’uso. Le linee guida chiariscono che la capacità di adattarsi non è un requisito obbligatorio per un sistema perché possa costituire un sistema AI regolato dall’AI Act.

4. I sistemi AI sono progettati per operare secondo obiettivi.

Le linee guida specificano che gli obiettivi del sistema possono essere espliciti (cioè obiettivi chiaramente dichiarati che il sviluppatore codifica direttamente nel sistema) o impliciti (cioè obiettivi che non sono esplicitamente dichiarati ma possono essere dedotti dal comportamento o dalle assunzioni sottostanti del sistema).

5. I sistemi AI devono essere in grado di inferire output.

Questo è un elemento chiave della definizione di “sistemi AI” e una parte importante delle linee guida. Il considerando 12 dell’AI Act stabilisce che la definizione di sistemi AI mira, in particolare, a distinguere i sistemi AI da sistemi software tradizionali più semplici e non dovrebbe coprire sistemi basati su regole definite esclusivamente da persone fisiche per eseguire operazioni automaticamente.

La Commissione Europea chiarisce come valutare la capacità di inferire output e cosa dovrebbe essere considerato un sistema AI in grado di inferire output. In generale, l’inferenza si riferisce alla capacità di un sistema AI di creare (inferire) output dagli input ricevuti senza essere vincolato unicamente da regole definite dall’uomo.

6. Gli output del sistema AI devono essere in grado di influenzare ambienti fisici o virtuali.

La Commissione UE descrive i quattro tipi di output elencati nella definizione di un sistema AI (previsioni, creazione di contenuti, raccomandazioni e decisioni). Specifica che i sistemi AI possono generare output più sfumati rispetto ad altri sistemi, ad esempio, sfruttando i modelli appresi durante l’addestramento o utilizzando regole definite da esperti per prendere decisioni.

7. I sistemi AI devono essere in grado di interagire con l’ambiente.

La Commissione UE specifica che questo elemento della definizione significa che i sistemi AI sono attivi, non passivi. La menzione di “ambienti fisici o virtuali” indica che un sistema AI può influenzare oggetti tangibili, come un braccio robotico, e contesti virtuali, come spazi digitali, flussi di dati e ecosistemi software.

Cosa viene dopo?

Come parte della loro valutazione su come e se l’AI Act possa applicarsi ai loro prodotti e operazioni, le organizzazioni dovrebbero valutare i sistemi AI che sviluppano e/o utilizzano in conformità alla definizione di sistema AI nell’Atto e nelle linee guida. Questa valutazione, in particolare riguardo al componente di capacità di inferenza della definizione, dovrebbe essere condotta sia dai team legali che da quelli tecnici.

More Insights

Collaborazione Essenziale per l’Adopzione dell’AI

L'adozione dell'IA sta rapidamente cambiando le dinamiche tra i professionisti della privacy e quelli IT, richiedendo una nuova era di collaborazione tra i due reparti. I team di privacy hanno bisogno...

DeepSeek e il Futuro della Governance Sociale in Cina

DeepSeek è un modello di linguaggio sviluppato in Cina, utilizzato per valutare l'opinione pubblica e promuovere la stabilità sociale. Questo strumento è progettato per allinearsi con le politiche del...

Linee guida dell’UE sulle pratiche di IA vietate

La Commissione Europea ha pubblicato linee guida sui pratiche di intelligenza artificiale (IA) proibite secondo l'AI Act. Queste linee guida mirano a fornire alle aziende chiarimenti su come...

North Carolina: L’Etica dell’Intelligenza Artificiale in Primo Piano

La Carolina del Nord ha nominato I-Sah Hsieh come primo leader della governance e della politica sull'IA, con l'obiettivo di promuovere un utilizzo etico della tecnologia. Hsieh, con un'esperienza di...

AI e Governance: Affrontare i Rischi del Futuro

L'intelligenza artificiale è rapidamente diventata un fattore critico in ogni settore. Tuttavia, con i guadagni che offre, emergono anche seri rischi, come sfide alla privacy e decisioni automatizzate...

Il Rischio Invisibile dell’IA: Pericoli delle Implementazioni Segrete

Le aziende di intelligenza artificiale stanno ancora implementando i loro sistemi più avanzati internamente, con poca o nessuna supervisione. Un nuovo rapporto avverte che questa distribuzione interna...

Governanza dell’IA: Un Futuro Collaborativo

Esperti globali hanno discusso delle sfide nella governance dell'intelligenza artificiale durante il Forum di Shanghai 2025. Hanno esplorato percorsi per superare le barriere della governance dell'IA...

Governanza dell’AI: Costruire un Futuro Sostenibile per la Malaysia

L'intelligenza artificiale (AI) sta rivoluzionando le industrie in tutto il mondo, e la Malesia non fa eccezione. Per affrontare le sfide dell'adozione dell'AI, è fondamentale stabilire solide...

Università e IA: Guidare il Futuro in un Mondo Frammentato

L'intelligenza artificiale è diventata la nuova linea di faglia geopolitica e le università si trovano al centro di questo dibattito. Devono navigare un paesaggio normativo frammentato per proteggere...