Definizione di un Sistema AI: Linee Guida della Commissione Europea

Linee Guida della Commissione Europea sulla Definizione di un “Sistema di IA”

Il 5 febbraio 2025, la Commissione Europea ha pubblicato due set di linee guida per chiarire aspetti chiave del Regolamento sull’Intelligenza Artificiale (“AI Act”): le Linee Guida sulla definizione di un sistema di IA e le Linee Guida sulle pratiche di IA proibite. Queste linee guida hanno lo scopo di fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025.

Definire un “Sistema di IA” ai sensi dell’AI Act

Il Regolamento sull’IA (Articolo 3(1)) definisce un “sistema di IA” come un (1) sistema basato su macchine; (2) progettato per operare con livelli variabili di autonomia; (3) che può mostrare adattabilità dopo il dispiegamento; (4) e che, per obiettivi espliciti o impliciti; (5) deduce, dagli input ricevuti, come generare output; (6) come previsioni, contenuti, raccomandazioni o decisioni; (7) che possono influenzare ambienti fisici o virtuali. Le linee guida sulla definizione del sistema di IA forniscono indicazioni esplicative su ciascuno di questi sette elementi.

Elementi chiave delle linee guida

  • Basato su macchine. Il termine “basato su macchine” si riferisce al fatto che i sistemi di IA sono sviluppati e operano su macchine. Include una vasta gamma di sistemi computazionali, compresi i sistemi di calcolo quantistico emergenti.
  • Autonomia. Il concetto di “livelli variabili di autonomia” si riferisce alla capacità del sistema di operare con un certo grado di indipendenza dall’intervento umano. I sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano non rientrano nella definizione di sistema di IA.
  • Adattabilità. L’adattabilità dopo il dispiegamento si riferisce alle capacità di autoapprendimento di un sistema, consentendo al suo comportamento di cambiare mentre è in uso. Tuttavia, non è una condizione necessaria per qualificarsi come sistema di IA.
  • Obiettivi. Gli obiettivi sono i fini espliciti o impliciti del compito da svolgere da parte del sistema di IA. Le linee guida distinguono tra gli “obiettivi” interni al sistema e il “fine previsto” esterno.
  • Deduzione e tecniche di IA. La capacità di dedurre come generare output dagli input ricevuti è una condizione indispensabile dei sistemi di IA. Le tecniche che abilitano la deduzione includono l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento profondo.
  • Output. Gli output possono includere previsioni, contenuti, raccomandazioni e decisioni. Questi rappresentano le diverse modalità attraverso cui un sistema di IA può influenzare gli ambienti in cui è impiegato.
  • Interazione con l’ambiente. L’interazione con l’ambiente implica che il sistema di IA non è passivo, ma ha un impatto attivo sull’ambiente in cui è impiegato, che può essere fisico o virtuale.

In conclusione, le linee guida sottolineano che sistemi più semplici, come quelli basati su approcci di programmazione tradizionali, non rientrano nella definizione di sistema di IA a causa della loro limitata capacità di analizzare modelli e regolare autonomamente i loro output.

Le informazioni qui presentate forniscono una panoramica utile per comprendere i criteri di classificazione dei sistemi di IA secondo la legislazione europea, e il contesto normativo in evoluzione che circonda questa tecnologia emergente.

More Insights

L’Utah guida la rivoluzione delle politiche sull’IA

Un legislatore dell'Utah è stato recentemente scelto per guidare un gruppo di lavoro nazionale per aiutare a orientare le politiche statali sull'intelligenza artificiale. Il rappresentante statale...

Nuove Regole per l’Intelligenza Artificiale in Texas

Il governatore del Texas ha firmato la legge sul governo responsabile dell'intelligenza artificiale del Texas (TRAIGA) il 22 giugno 2025, rendendo il Texas il secondo stato a introdurre una...

Nuove Regole dell’UE per l’Intelligenza Artificiale: Un Futuro Sicuro

L'Unione Europea ha implementato la propria legge sull'IA, rilasciando linee guida per garantire la conformità e bilanciare l'innovazione dell'IA con la sicurezza. Questa legge introduce categorie di...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Rischi di conformità nell’integrazione dell’intelligenza artificiale

L'intelligenza artificiale sta diventando una parte fondamentale delle funzioni di conformità aziendale, semplificando compiti come le revisioni automatiche dei contratti e il monitoraggio continuo...

Governanza dell’AI: il divario tra adozione e gestione

Secondo una nuova ricerca, il 93% delle aziende nel Regno Unito utilizza l'IA in qualche modo, ma la maggior parte manca di quadri per gestire i rischi. Solo il sette percento ha implementato...

Governanza dei Dati nell’Atto AI dell’UE: Fondamenti e Implicazioni

La legge sull'intelligenza artificiale dell'Unione Europea (EU AI Act) propone un quadro per regolare l'IA, in particolare per i sistemi "ad alto rischio". L'articolo 10 si concentra sui dati e sulla...

Codice di Pratica GPAI: Nuove Regole per l’Intelligenza Artificiale in Europa

La Commissione Europea ha pubblicato un Codice di Pratica volontario per aiutare l'industria a conformarsi agli obblighi della legge sull'IA riguardo alla sicurezza, trasparenza e copyright per i...