Chiarimenti dell’UE sulla Definizione dei Sistemi AI

Chiarimenti della Commissione Europea sulla Definizione di Sistemi AI

La Commissione Europea ha pubblicato delle linee guida che chiariscono la definizione di sistemi AI ai sensi dell’AI Act, analizzando ciascun componente della definizione di sistema AI, fornendo esempi e specificando quali sistemi dovrebbero essere esclusi dall’ambito della definizione. Sebbene non siano vincolanti, queste indicazioni rappresentano uno strumento utile per le aziende per valutare se rientrano nell’ambito di applicazione dell’AI Act.

La Commissione ha approvato queste linee guida, ma non le ha ancora formalmente adottate.

Come definisce l’AI Act i Sistemi AI?

L’Articolo 3(1) dell’AI Act definisce i sistemi AI come segue: “Il sistema AI è un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.” Il considerando 12 dell’AI Act fornisce orientamenti interpretativi non vincolanti riguardo alla definizione di un sistema AI, che le linee guida della Commissione UE supportano ulteriormente.

La Commissione UE identifica e chiarisce i seguenti sette componenti della definizione di un sistema AI ai sensi dell’AI Act.

1. I sistemi AI sono sistemi basati su macchina.

Le linee guida chiariscono che il termine “basato su macchina” si riferisce all’integrazione di componenti hardware e software che consentono a questi sistemi di funzionare, sottolineando il fatto che i sistemi devono essere guidati da computazione e basati su operazioni di macchina.

2. I sistemi AI devono avere un certo grado di autonomia.

Il considerando 12 dell’AI Act specifica che i sistemi AI dovrebbero avere “un certo grado di indipendenza dalle azioni umane e di capacità di operare senza intervento umano.” La Commissione UE elabora che il concetto di un sistema AI esclude quindi sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano. Tale coinvolgimento umano può essere diretto, ad esempio, tramite controlli manuali, o indiretto, ad esempio, tramite controlli basati su sistemi automatizzati.

3. I sistemi AI possono adattarsi dopo il dispiegamento.

La definizione di un sistema AI ai sensi dell’AI Act indica che un sistema può mostrare adattabilità dopo il dispiegamento. Il considerando 12 chiarisce che l’“adattabilità” si riferisce a capacità di autoapprendimento, consentendo al comportamento del sistema di cambiare durante l’uso. Le linee guida chiariscono che la capacità di adattarsi non è un requisito obbligatorio per un sistema perché possa costituire un sistema AI regolato dall’AI Act.

4. I sistemi AI sono progettati per operare secondo obiettivi.

Le linee guida specificano che gli obiettivi del sistema possono essere espliciti (cioè obiettivi chiaramente dichiarati che il sviluppatore codifica direttamente nel sistema) o impliciti (cioè obiettivi che non sono esplicitamente dichiarati ma possono essere dedotti dal comportamento o dalle assunzioni sottostanti del sistema).

5. I sistemi AI devono essere in grado di inferire output.

Questo è un elemento chiave della definizione di “sistemi AI” e una parte importante delle linee guida. Il considerando 12 dell’AI Act stabilisce che la definizione di sistemi AI mira, in particolare, a distinguere i sistemi AI da sistemi software tradizionali più semplici e non dovrebbe coprire sistemi basati su regole definite esclusivamente da persone fisiche per eseguire operazioni automaticamente.

La Commissione Europea chiarisce come valutare la capacità di inferire output e cosa dovrebbe essere considerato un sistema AI in grado di inferire output. In generale, l’inferenza si riferisce alla capacità di un sistema AI di creare (inferire) output dagli input ricevuti senza essere vincolato unicamente da regole definite dall’uomo.

6. Gli output del sistema AI devono essere in grado di influenzare ambienti fisici o virtuali.

La Commissione UE descrive i quattro tipi di output elencati nella definizione di un sistema AI (previsioni, creazione di contenuti, raccomandazioni e decisioni). Specifica che i sistemi AI possono generare output più sfumati rispetto ad altri sistemi, ad esempio, sfruttando i modelli appresi durante l’addestramento o utilizzando regole definite da esperti per prendere decisioni.

7. I sistemi AI devono essere in grado di interagire con l’ambiente.

La Commissione UE specifica che questo elemento della definizione significa che i sistemi AI sono attivi, non passivi. La menzione di “ambienti fisici o virtuali” indica che un sistema AI può influenzare oggetti tangibili, come un braccio robotico, e contesti virtuali, come spazi digitali, flussi di dati e ecosistemi software.

Cosa viene dopo?

Come parte della loro valutazione su come e se l’AI Act possa applicarsi ai loro prodotti e operazioni, le organizzazioni dovrebbero valutare i sistemi AI che sviluppano e/o utilizzano in conformità alla definizione di sistema AI nell’Atto e nelle linee guida. Questa valutazione, in particolare riguardo al componente di capacità di inferenza della definizione, dovrebbe essere condotta sia dai team legali che da quelli tecnici.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...