Linee guida europee per definire i sistemi di intelligenza artificiale

Linee Guida della Commissione Europea sulla Definizione di un “Sistema di IA”

Nel febbraio 2025, la Commissione Europea ha pubblicato due set di linee guida per chiarire aspetti chiave del Regolamento sull’Intelligenza Artificiale (“AI Act”): le Linee Guida sulla definizione di un sistema di IA e le Linee Guida sulle pratiche di IA vietate. Queste linee guida sono destinate a fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025, inclusa la sezione delle definizioni, gli obblighi relativi alla alfabetizzazione sull’IA e i divieti su determinate pratiche di IA.

Questo articolo riassume i punti chiave delle linee guida della Commissione sulla definizione di sistemi di IA.

Definire un “Sistema di IA” ai sensi dell’AI Act

Secondo l’AI Act (Articolo 3(1)), un “sistema di IA” è definito come (1) un sistema basato su macchina; (2) progettato per operare con vari livelli di autonomia; (3) che può mostrare adattabilità dopo il dispiegamento; (4) e che, per obiettivi espliciti o impliciti; (5) deduce, dagli input ricevuti, come generare output; (6) come previsioni, contenuti, raccomandazioni o decisioni; (7) che possono influenzare ambienti fisici o virtuali. Le Linee Guida forniscono indicazioni esplicative su ciascuno di questi sette elementi.

Punti chiave delle Linee Guida

  • Basato su Macchina. Il termine “basato su macchina” si riferisce al fatto che i sistemi di IA sono sviluppati e operano su macchine e coprono una vasta gamma di sistemi computazionali, inclusi i sistemi di calcolo quantistico emergenti.
  • Autonomia. Il concetto di “vari livelli di autonomia” si riferisce alla capacità del sistema di operare con un certo grado di indipendenza dall’intervento umano. I sistemi progettati per operare solo con il pieno coinvolgimento manuale dell’uomo sono esclusi dalla definizione di sistema di IA.
  • Adattabilità. L’adattabilità dopo il dispiegamento si riferisce alle capacità di auto-apprendimento di un sistema, permettendo al suo comportamento di cambiare durante l’uso. Tuttavia, non è una condizione necessaria per qualificarsi come sistema di IA.
  • Obiettivi. Gli obiettivi sono i fini espliciti o impliciti del compito che deve essere svolto dal sistema di IA. Le linee guida distinguono tra gli “obiettivi” del sistema e il suo “scopo inteso”, che è esterno al sistema.
  • Inferenza e tecniche di IA. La capacità di dedurre come generare output dagli input ricevuti è una condizione fondamentale dei sistemi di IA. Le tecniche di IA che abilitano l’inferenza includono apprendimento supervisionato, apprendimento non supervisionato, apprendimento rinforzato e tecniche basate su conoscenza e logica.
  • Output. Gli output includono quattro categorie principali: (1) previsioni, (2) contenuti, (3) raccomandazioni e (4) decisioni.
  • Interazione con l’ambiente. Un sistema di IA non è passivo, ma impatta attivamente l’ambiente in cui è dispiegato.

Le Linee Guida sottolineano che sono escluse dalla definizione di sistema di IA i “sistemi software tradizionali più semplici” e i sistemi basati su regole definite esclusivamente da persone naturali. Questi sistemi, sebbene possano avere la capacità di inferire, non rientrano nella definizione a causa della loro capacità limitata di analizzare modelli e regolare autonomamente il loro output.

È importante rimanere informati sugli sviluppi normativi riguardanti l’IA, poiché le questioni normative e di conformità rappresentano sfide significative per le aziende tecnologiche.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...