Definizione di un Sistema AI: Linee Guida della Commissione Europea

Linee Guida della Commissione Europea sulla Definizione di un “Sistema di IA”

Il 5 febbraio 2025, la Commissione Europea ha pubblicato due set di linee guida per chiarire aspetti chiave del Regolamento sull’Intelligenza Artificiale (“AI Act”): le Linee Guida sulla definizione di un sistema di IA e le Linee Guida sulle pratiche di IA proibite. Queste linee guida hanno lo scopo di fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025.

Definire un “Sistema di IA” ai sensi dell’AI Act

Il Regolamento sull’IA (Articolo 3(1)) definisce un “sistema di IA” come un (1) sistema basato su macchine; (2) progettato per operare con livelli variabili di autonomia; (3) che può mostrare adattabilità dopo il dispiegamento; (4) e che, per obiettivi espliciti o impliciti; (5) deduce, dagli input ricevuti, come generare output; (6) come previsioni, contenuti, raccomandazioni o decisioni; (7) che possono influenzare ambienti fisici o virtuali. Le linee guida sulla definizione del sistema di IA forniscono indicazioni esplicative su ciascuno di questi sette elementi.

Elementi chiave delle linee guida

  • Basato su macchine. Il termine “basato su macchine” si riferisce al fatto che i sistemi di IA sono sviluppati e operano su macchine. Include una vasta gamma di sistemi computazionali, compresi i sistemi di calcolo quantistico emergenti.
  • Autonomia. Il concetto di “livelli variabili di autonomia” si riferisce alla capacità del sistema di operare con un certo grado di indipendenza dall’intervento umano. I sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano non rientrano nella definizione di sistema di IA.
  • Adattabilità. L’adattabilità dopo il dispiegamento si riferisce alle capacità di autoapprendimento di un sistema, consentendo al suo comportamento di cambiare mentre è in uso. Tuttavia, non è una condizione necessaria per qualificarsi come sistema di IA.
  • Obiettivi. Gli obiettivi sono i fini espliciti o impliciti del compito da svolgere da parte del sistema di IA. Le linee guida distinguono tra gli “obiettivi” interni al sistema e il “fine previsto” esterno.
  • Deduzione e tecniche di IA. La capacità di dedurre come generare output dagli input ricevuti è una condizione indispensabile dei sistemi di IA. Le tecniche che abilitano la deduzione includono l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento profondo.
  • Output. Gli output possono includere previsioni, contenuti, raccomandazioni e decisioni. Questi rappresentano le diverse modalità attraverso cui un sistema di IA può influenzare gli ambienti in cui è impiegato.
  • Interazione con l’ambiente. L’interazione con l’ambiente implica che il sistema di IA non è passivo, ma ha un impatto attivo sull’ambiente in cui è impiegato, che può essere fisico o virtuale.

In conclusione, le linee guida sottolineano che sistemi più semplici, come quelli basati su approcci di programmazione tradizionali, non rientrano nella definizione di sistema di IA a causa della loro limitata capacità di analizzare modelli e regolare autonomamente i loro output.

Le informazioni qui presentate forniscono una panoramica utile per comprendere i criteri di classificazione dei sistemi di IA secondo la legislazione europea, e il contesto normativo in evoluzione che circonda questa tecnologia emergente.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...