Linee guida europee per definire i sistemi di intelligenza artificiale

Linee Guida della Commissione Europea sulla Definizione di un “Sistema di IA”

Nel febbraio 2025, la Commissione Europea ha pubblicato due set di linee guida per chiarire aspetti chiave del Regolamento sull’Intelligenza Artificiale (“AI Act”): le Linee Guida sulla definizione di un sistema di IA e le Linee Guida sulle pratiche di IA vietate. Queste linee guida sono destinate a fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025, inclusa la sezione delle definizioni, gli obblighi relativi alla alfabetizzazione sull’IA e i divieti su determinate pratiche di IA.

Questo articolo riassume i punti chiave delle linee guida della Commissione sulla definizione di sistemi di IA.

Definire un “Sistema di IA” ai sensi dell’AI Act

Secondo l’AI Act (Articolo 3(1)), un “sistema di IA” è definito come (1) un sistema basato su macchina; (2) progettato per operare con vari livelli di autonomia; (3) che può mostrare adattabilità dopo il dispiegamento; (4) e che, per obiettivi espliciti o impliciti; (5) deduce, dagli input ricevuti, come generare output; (6) come previsioni, contenuti, raccomandazioni o decisioni; (7) che possono influenzare ambienti fisici o virtuali. Le Linee Guida forniscono indicazioni esplicative su ciascuno di questi sette elementi.

Punti chiave delle Linee Guida

  • Basato su Macchina. Il termine “basato su macchina” si riferisce al fatto che i sistemi di IA sono sviluppati e operano su macchine e coprono una vasta gamma di sistemi computazionali, inclusi i sistemi di calcolo quantistico emergenti.
  • Autonomia. Il concetto di “vari livelli di autonomia” si riferisce alla capacità del sistema di operare con un certo grado di indipendenza dall’intervento umano. I sistemi progettati per operare solo con il pieno coinvolgimento manuale dell’uomo sono esclusi dalla definizione di sistema di IA.
  • Adattabilità. L’adattabilità dopo il dispiegamento si riferisce alle capacità di auto-apprendimento di un sistema, permettendo al suo comportamento di cambiare durante l’uso. Tuttavia, non è una condizione necessaria per qualificarsi come sistema di IA.
  • Obiettivi. Gli obiettivi sono i fini espliciti o impliciti del compito che deve essere svolto dal sistema di IA. Le linee guida distinguono tra gli “obiettivi” del sistema e il suo “scopo inteso”, che è esterno al sistema.
  • Inferenza e tecniche di IA. La capacità di dedurre come generare output dagli input ricevuti è una condizione fondamentale dei sistemi di IA. Le tecniche di IA che abilitano l’inferenza includono apprendimento supervisionato, apprendimento non supervisionato, apprendimento rinforzato e tecniche basate su conoscenza e logica.
  • Output. Gli output includono quattro categorie principali: (1) previsioni, (2) contenuti, (3) raccomandazioni e (4) decisioni.
  • Interazione con l’ambiente. Un sistema di IA non è passivo, ma impatta attivamente l’ambiente in cui è dispiegato.

Le Linee Guida sottolineano che sono escluse dalla definizione di sistema di IA i “sistemi software tradizionali più semplici” e i sistemi basati su regole definite esclusivamente da persone naturali. Questi sistemi, sebbene possano avere la capacità di inferire, non rientrano nella definizione a causa della loro capacità limitata di analizzare modelli e regolare autonomamente il loro output.

È importante rimanere informati sugli sviluppi normativi riguardanti l’IA, poiché le questioni normative e di conformità rappresentano sfide significative per le aziende tecnologiche.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...