Comprendere il Campo della Definizione del “Sistema di Intelligenza Artificiale (IA)”: Approfondimenti Chiave dalle Linee Guida della Commissione Europea
Con l’entrata in vigore della legge sull’IA (Regolamento 2024/1689) nell’agosto del 2024, è stato stabilito un quadro pionieristico per l’IA.
Il 2 febbraio 2025, sono diventate applicabili le prime disposizioni della legge sull’IA, comprese la definizione del sistema di IA, la alfabetizzazione sull’IA e un numero limitato di pratiche di IA vietate. In linea con l’articolo 96 della legge sull’IA, la Commissione Europea ha pubblicato linee guida dettagliate il 6 febbraio 2025.
Queste linee guida non vincolanti hanno un’alta rilevanza pratica, poiché cercano di portare chiarezza legale a uno degli aspetti più fondamentali della legge: cosa qualifica come un “sistema di IA” secondo il diritto dell’UE. La loro pubblicazione offre una guida critica per sviluppatori, fornitori, utilizzatori e autorità di regolamentazione che mirano a comprendere il campo di applicazione della legge sull’IA e a valutare se sistemi specifici rientrano in essa.
Elementi della Definizione di “Sistema di IA”
L’articolo 3(1) della legge sull’IA definisce un sistema di IA come un sistema basato su macchine progettato per operare con vari livelli di autonomia, che può mostrare adattabilità dopo il dispiegamento e che, per obiettivi espliciti o impliciti, deduce dall’input ricevuto come generare output, come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
La Commissione Europea sottolinea che questa definizione è basata su una prospettiva del ciclo di vita, coprendo sia la fase di costruzione (pre-dispiegamento) che la fase di utilizzo (post-dispiegamento). È importante notare che non tutti gli elementi definitori devono sempre essere presenti; alcuni possono apparire solo in una fase, rendendo la definizione adattabile a un’ampia gamma di tecnologie, in linea con l’approccio a prova di futuro della legge sull’IA.
Sistema Basato su Macchine
Le linee guida confermano che tutti i sistemi di IA devono operare attraverso macchine, composte da componenti hardware (ad es. processori, memoria e interfacce) e software (ad es. codice, algoritmi e modelli). Questo include non solo sistemi digitali tradizionali, ma anche piattaforme avanzate come il calcolo quantistico e il calcolo biologico, purché abbiano capacità computazionale.
Autonomia
Un altro requisito essenziale è l’autonomia, descritta come la capacità di un sistema di funzionare con un certo grado di indipendenza dal controllo umano. Questo non implica necessariamente una automazione completa, ma può includere sistemi in grado di operare sulla base di input o supervisione umana indiretta. I sistemi progettati per operare esclusivamente con il pieno intervento umano manuale non rientrano in questa definizione.
Adattabilità
Un sistema di IA può, ma non è obbligato a, mostrare adattabilità, il che significa che può modificare il proprio comportamento dopo il dispiegamento sulla base di nuovi dati o esperienze. È importante notare che l’adattabilità è opzionale e i sistemi privi di capacità di apprendimento possono comunque qualificarsi come IA se soddisfano altri criteri. Tuttavia, questa caratteristica è cruciale per differenziare i sistemi di IA dinamici da software statico.
Obiettivi dei Sistemi
I sistemi di IA sono progettati per raggiungere obiettivi specifici, che possono essere sia espliciti (chiaramente programmati) che impliciti (derivati dai dati di addestramento o dal comportamento del sistema). Questi obiettivi interni sono diversi dallo scopo previsto, che è definito esternamente dal fornitore e dal contesto d’uso.
Capacità di Inferenza
È la capacità di dedurre come generare output basato su dati di input che definisce un sistema di IA. Questo li distingue dal software tradizionale basato su regole o deterministico. Secondo le linee guida, “inferenza” comprende sia la fase di utilizzo, in cui vengono generati output come previsioni, decisioni o raccomandazioni, sia la fase di costruzione, in cui modelli o algoritmi vengono derivati utilizzando tecniche di IA.
Output che Può Influenzare Ambienti Fisici o Virtuali
L’output di un sistema di IA (previsioni, contenuti, raccomandazioni o decisioni) deve essere in grado di influenzare ambienti fisici o virtuali. Ciò cattura la vasta funzionalità dell’IA moderna, dai veicoli autonomi e i modelli linguistici ai motori di raccomandazione. I sistemi che elaborano o visualizzano solo dati senza influenzare alcun risultato rientrano al di fuori della definizione.
Interazione Ambientale
Infine, i sistemi di IA devono essere in grado di interagire con il loro ambiente, sia fisico (ad es. sistemi robotici) che virtuale (ad es. assistenti digitali). Questo elemento sottolinea l’impatto pratico dei sistemi di IA e distingue ulteriormente questi ultimi da software puramente passivi o isolati.
Sistemi Esclusi dalla Definizione di Sistema di IA
Oltre alla vasta spiegazione degli elementi definitori dei sistemi di IA, queste linee guida forniscono chiarezza su cosa non è considerato IA secondo la legge sull’IA, anche se alcuni sistemi mostrano tratti rudimentali di inferenza:
- Sistemi per migliorare l’ottimizzazione matematica – Sistemi, come alcuni strumenti di machine learning, utilizzati esclusivamente per migliorare le prestazioni computazionali (ad es. per aumentare la velocità di simulazione o l’allocazione della larghezza di banda) rientrano al di fuori della portata, a meno che non comportino decisioni intelligenti.
- Strumenti di elaborazione dati di base – Sistemi che eseguono istruzioni o calcoli predefiniti (ad es. fogli di calcolo, dashboard e database) senza apprendimento, ragionamento o modellazione non sono considerati sistemi di IA.
- Sistemi euristici classici – Sistemi di problem-solving basati su regole che non evolvono attraverso dati o esperienze, come programmi di scacchi basati esclusivamente su algoritmi minimax, sono esclusi.
- Motori predittivi semplici – Strumenti che utilizzano metodi statistici di base (ad es. predittori basati sulla media) per benchmarking o previsione, senza riconoscimento complesso di modelli o inferenza, non soddisfano la soglia della definizione.
La Commissione Europea conclude sottolineando i seguenti aspetti:
- È necessario notare che la definizione di un sistema di IA nella legge sull’IA è ampia e deve essere valutata in base a come ogni sistema funziona nella pratica.
- Non esiste un elenco esaustivo di ciò che è considerato IA; ogni caso dipende dalle caratteristiche del sistema.
- Non tutti i sistemi di IA sono soggetti a obblighi normativi e supervisione sotto la legge sull’IA.
- Solo quelli che presentano rischi più elevati, come quelli coperti dalle norme su IA vietate o ad alto rischio, saranno soggetti a obblighi legali.
Queste linee guida svolgono un ruolo importante nel supportare l’attuazione efficace della legge sull’IA. Chiarendo cosa si intende per sistema di IA, forniscono maggiore certezza legale e aiutano tutti i soggetti interessati, come regolatori, fornitori e utenti, a comprendere come le norme si applicano nella pratica. Il loro approccio funzionale e flessibile riflette la diversità delle tecnologie di IA e offre una base pratica per distinguere i sistemi di IA dal software tradizionale. In tal modo, le linee guida contribuiscono a un’applicazione più coerente e affidabile del regolamento in tutta l’UE.