Definizione di un Sistema AI: Linee Guida della Commissione Europea

Linee Guida della Commissione Europea sulla Definizione di un “Sistema di IA”

Il 5 febbraio 2025, la Commissione Europea ha pubblicato due set di linee guida per chiarire aspetti chiave del Regolamento sull’Intelligenza Artificiale (“AI Act”): le Linee Guida sulla definizione di un sistema di IA e le Linee Guida sulle pratiche di IA proibite. Queste linee guida hanno lo scopo di fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025.

Definire un “Sistema di IA” ai sensi dell’AI Act

Il Regolamento sull’IA (Articolo 3(1)) definisce un “sistema di IA” come un (1) sistema basato su macchine; (2) progettato per operare con livelli variabili di autonomia; (3) che può mostrare adattabilità dopo il dispiegamento; (4) e che, per obiettivi espliciti o impliciti; (5) deduce, dagli input ricevuti, come generare output; (6) come previsioni, contenuti, raccomandazioni o decisioni; (7) che possono influenzare ambienti fisici o virtuali. Le linee guida sulla definizione del sistema di IA forniscono indicazioni esplicative su ciascuno di questi sette elementi.

Elementi chiave delle linee guida

  • Basato su macchine. Il termine “basato su macchine” si riferisce al fatto che i sistemi di IA sono sviluppati e operano su macchine. Include una vasta gamma di sistemi computazionali, compresi i sistemi di calcolo quantistico emergenti.
  • Autonomia. Il concetto di “livelli variabili di autonomia” si riferisce alla capacità del sistema di operare con un certo grado di indipendenza dall’intervento umano. I sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano non rientrano nella definizione di sistema di IA.
  • Adattabilità. L’adattabilità dopo il dispiegamento si riferisce alle capacità di autoapprendimento di un sistema, consentendo al suo comportamento di cambiare mentre è in uso. Tuttavia, non è una condizione necessaria per qualificarsi come sistema di IA.
  • Obiettivi. Gli obiettivi sono i fini espliciti o impliciti del compito da svolgere da parte del sistema di IA. Le linee guida distinguono tra gli “obiettivi” interni al sistema e il “fine previsto” esterno.
  • Deduzione e tecniche di IA. La capacità di dedurre come generare output dagli input ricevuti è una condizione indispensabile dei sistemi di IA. Le tecniche che abilitano la deduzione includono l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento profondo.
  • Output. Gli output possono includere previsioni, contenuti, raccomandazioni e decisioni. Questi rappresentano le diverse modalità attraverso cui un sistema di IA può influenzare gli ambienti in cui è impiegato.
  • Interazione con l’ambiente. L’interazione con l’ambiente implica che il sistema di IA non è passivo, ma ha un impatto attivo sull’ambiente in cui è impiegato, che può essere fisico o virtuale.

In conclusione, le linee guida sottolineano che sistemi più semplici, come quelli basati su approcci di programmazione tradizionali, non rientrano nella definizione di sistema di IA a causa della loro limitata capacità di analizzare modelli e regolare autonomamente i loro output.

Le informazioni qui presentate forniscono una panoramica utile per comprendere i criteri di classificazione dei sistemi di IA secondo la legislazione europea, e il contesto normativo in evoluzione che circonda questa tecnologia emergente.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...