Linee guida europee per la definizione dei sistemi di intelligenza artificiale

Linee guida della Commissione Europea sulla definizione dei sistemi di intelligenza artificiale

La Commissione Europea ha emesso linee guida complete e attese da tempo sulla definizione dei sistemi di intelligenza artificiale, come stabilito dal Regolamento (UE) 2024/1689 (AI Act). Con queste linee guida pratiche, la Commissione mira ad aiutare fornitori, utilizzatori, importatori e distributori di sistemi di intelligenza artificiale a determinare se un sistema costituisce un sistema AI secondo il significato dell’AI Act, facilitando così l’applicazione e l’applicazione efficace di tale legge. La definizione di sistemi di AI è entrata in vigore il 2 febbraio 2025.

Elementi chiave della definizione di sistema AI

Data la natura diversificata dei sistemi di AI, le linee guida non possono fornire un elenco esaustivo. Ogni sistema deve essere valutato in base alle sue caratteristiche specifiche.

L’AI Act segue un approccio basato sul ciclo di vita e definisce un sistema di AI come segue: (1) un sistema basato su macchine, (2) progettato per operare con livelli variabili di autonomia, (3) che può mostrare adattabilità dopo il dispiegamento, (4) e, per obiettivi espliciti o impliciti, (5) inferisce dagli input ricevuti come generare output, (6) come previsioni, contenuti, raccomandazioni o decisioni (7) che possono influenzare ambienti fisici o virtuali.

Questa definizione in sette punti copre due fasi principali: la fase di pre-dispiegamento (fase di costruzione) e la fase di post-dispiegamento (fase d’uso). Non tutti e sette gli elementi devono essere presenti in entrambe le fasi; alcuni possono apparire solo in una fase.

Riepilogo dei sette punti

1. Sistema basato su macchine

I sistemi di AI sono sistemi basati su macchine, il che significa che sono sviluppati e operano su macchine e si basano su componenti hardware e software per funzionare. L’hardware include unità di elaborazione, memoria, dispositivi di archiviazione e interfacce di rete, mentre il software consiste in codice informatico, sistemi operativi e applicazioni che abilitano l’elaborazione dei dati e l’esecuzione dei compiti.

2. Autonomia

L’autonomia di un sistema di AI si riferisce alla sua capacità di operare con livelli variabili di indipendenza dal coinvolgimento umano. I sistemi di AI variano da quelli che operano con pieno coinvolgimento umano e intervento a quelli completamente autonomi, con molti che si collocano tra questi estremi. Un sistema che elabora input forniti manualmente per generare un output in modo indipendente, o un sistema esperto che produce raccomandazioni basate su automazione delegata, si qualifica ancora come avente un certo grado di indipendenza di azione.

Il livello di autonomia del sistema di AI è cruciale per i fornitori quando si tratta di determinare il rischio del sistema di AI e gli obblighi di conformità e implementare misure di sicurezza per il dispiegamento dell’AI.

3. Adattabilità

L’adattabilità, che non è un requisito obbligatorio della definizione di sistema di AI, si riferisce alla capacità di un sistema di AI di mostrare capacità di auto-apprendimento dopo il dispiegamento, permettendo al suo comportamento di cambiare nel tempo e produrre risultati diversi per gli stessi input.

4. Obiettivi del sistema AI

I sistemi di AI sono progettati per operare sulla base di obiettivi espliciti o impliciti che guidano la loro funzionalità. Gli obiettivi espliciti sono obiettivi chiaramente definiti direttamente codificati dagli sviluppatori, mentre gli obiettivi impliciti emergono dal comportamento del sistema, dai dati di addestramento o dalle interazioni con il suo ambiente. Gli obiettivi di un sistema di AI possono differire dal suo scopo previsto.

5. Inferenza per generare output utilizzando tecniche AI

Una caratteristica chiave di un sistema di AI è la sua capacità di inferire come generare output dagli input ricevuti, distinguendolo così dal software tradizionale. Il processo di inferenza consente ai sistemi di AI di produrre previsioni, contenuti, raccomandazioni o decisioni che influenzano ambienti fisici e virtuali.

6. Output che possono influenzare ambienti fisici o virtuali

Una caratteristica chiave dei sistemi di AI è la loro capacità di generare output che possono influenzare ambienti fisici o virtuali. Questi output rientrano in quattro categorie – previsioni, generazione di contenuti, raccomandazioni e decisioni, ciascuna variando nel livello di coinvolgimento umano.

7. Interazione con l’ambiente

Gli output dei sistemi di AI influenzano attivamente ambienti fisici e virtuali, influenzando oggetti tangibili come robot e spazi digitali come flussi di dati ed ecosistemi software.

Sistemi al di fuori dell’ambito della definizione di sistema AI

La definizione di sistema AI non copre sistemi basati su regole definite esclusivamente da persone fisiche per eseguire automaticamente operazioni. Questi sistemi possono includere:

  1. Sistemi per migliorare l’ottimizzazione matematica, poiché non trascendono il ‘basic data processing’.
  2. Sistemi di elaborazione dati di base che seguono istruzioni predefinite senza ‘apprendimento, ragionamento o modellazione’.
  3. Sistemi basati su euristiche classiche, che applicano regole predefinite per derivare soluzioni senza adattabilità.
  4. Sistemi di previsione semplici che possono essere realizzati tramite una semplice regola di apprendimento statistico.

Per consigli su come navigare in queste normative e garantire che i vostri sistemi di AI soddisfino gli standard richiesti, contattate esperti del settore.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...