Linee guida europee per la definizione dei sistemi di intelligenza artificiale

Linee guida della Commissione Europea sulla definizione dei sistemi di intelligenza artificiale

La Commissione Europea ha emesso linee guida complete e attese da tempo sulla definizione dei sistemi di intelligenza artificiale, come stabilito dal Regolamento (UE) 2024/1689 (AI Act). Con queste linee guida pratiche, la Commissione mira ad aiutare fornitori, utilizzatori, importatori e distributori di sistemi di intelligenza artificiale a determinare se un sistema costituisce un sistema AI secondo il significato dell’AI Act, facilitando così l’applicazione e l’applicazione efficace di tale legge. La definizione di sistemi di AI è entrata in vigore il 2 febbraio 2025.

Elementi chiave della definizione di sistema AI

Data la natura diversificata dei sistemi di AI, le linee guida non possono fornire un elenco esaustivo. Ogni sistema deve essere valutato in base alle sue caratteristiche specifiche.

L’AI Act segue un approccio basato sul ciclo di vita e definisce un sistema di AI come segue: (1) un sistema basato su macchine, (2) progettato per operare con livelli variabili di autonomia, (3) che può mostrare adattabilità dopo il dispiegamento, (4) e, per obiettivi espliciti o impliciti, (5) inferisce dagli input ricevuti come generare output, (6) come previsioni, contenuti, raccomandazioni o decisioni (7) che possono influenzare ambienti fisici o virtuali.

Questa definizione in sette punti copre due fasi principali: la fase di pre-dispiegamento (fase di costruzione) e la fase di post-dispiegamento (fase d’uso). Non tutti e sette gli elementi devono essere presenti in entrambe le fasi; alcuni possono apparire solo in una fase.

Riepilogo dei sette punti

1. Sistema basato su macchine

I sistemi di AI sono sistemi basati su macchine, il che significa che sono sviluppati e operano su macchine e si basano su componenti hardware e software per funzionare. L’hardware include unità di elaborazione, memoria, dispositivi di archiviazione e interfacce di rete, mentre il software consiste in codice informatico, sistemi operativi e applicazioni che abilitano l’elaborazione dei dati e l’esecuzione dei compiti.

2. Autonomia

L’autonomia di un sistema di AI si riferisce alla sua capacità di operare con livelli variabili di indipendenza dal coinvolgimento umano. I sistemi di AI variano da quelli che operano con pieno coinvolgimento umano e intervento a quelli completamente autonomi, con molti che si collocano tra questi estremi. Un sistema che elabora input forniti manualmente per generare un output in modo indipendente, o un sistema esperto che produce raccomandazioni basate su automazione delegata, si qualifica ancora come avente un certo grado di indipendenza di azione.

Il livello di autonomia del sistema di AI è cruciale per i fornitori quando si tratta di determinare il rischio del sistema di AI e gli obblighi di conformità e implementare misure di sicurezza per il dispiegamento dell’AI.

3. Adattabilità

L’adattabilità, che non è un requisito obbligatorio della definizione di sistema di AI, si riferisce alla capacità di un sistema di AI di mostrare capacità di auto-apprendimento dopo il dispiegamento, permettendo al suo comportamento di cambiare nel tempo e produrre risultati diversi per gli stessi input.

4. Obiettivi del sistema AI

I sistemi di AI sono progettati per operare sulla base di obiettivi espliciti o impliciti che guidano la loro funzionalità. Gli obiettivi espliciti sono obiettivi chiaramente definiti direttamente codificati dagli sviluppatori, mentre gli obiettivi impliciti emergono dal comportamento del sistema, dai dati di addestramento o dalle interazioni con il suo ambiente. Gli obiettivi di un sistema di AI possono differire dal suo scopo previsto.

5. Inferenza per generare output utilizzando tecniche AI

Una caratteristica chiave di un sistema di AI è la sua capacità di inferire come generare output dagli input ricevuti, distinguendolo così dal software tradizionale. Il processo di inferenza consente ai sistemi di AI di produrre previsioni, contenuti, raccomandazioni o decisioni che influenzano ambienti fisici e virtuali.

6. Output che possono influenzare ambienti fisici o virtuali

Una caratteristica chiave dei sistemi di AI è la loro capacità di generare output che possono influenzare ambienti fisici o virtuali. Questi output rientrano in quattro categorie – previsioni, generazione di contenuti, raccomandazioni e decisioni, ciascuna variando nel livello di coinvolgimento umano.

7. Interazione con l’ambiente

Gli output dei sistemi di AI influenzano attivamente ambienti fisici e virtuali, influenzando oggetti tangibili come robot e spazi digitali come flussi di dati ed ecosistemi software.

Sistemi al di fuori dell’ambito della definizione di sistema AI

La definizione di sistema AI non copre sistemi basati su regole definite esclusivamente da persone fisiche per eseguire automaticamente operazioni. Questi sistemi possono includere:

  1. Sistemi per migliorare l’ottimizzazione matematica, poiché non trascendono il ‘basic data processing’.
  2. Sistemi di elaborazione dati di base che seguono istruzioni predefinite senza ‘apprendimento, ragionamento o modellazione’.
  3. Sistemi basati su euristiche classiche, che applicano regole predefinite per derivare soluzioni senza adattabilità.
  4. Sistemi di previsione semplici che possono essere realizzati tramite una semplice regola di apprendimento statistico.

Per consigli su come navigare in queste normative e garantire che i vostri sistemi di AI soddisfino gli standard richiesti, contattate esperti del settore.

More Insights

Ingegneri AI e Ingegneri Responsabili: Innovazione e Etica a Confronto

L'intelligenza artificiale ha fatto esplodere le sue capacità, portando gli ingegneri dell'IA a essere in prima linea nell'innovazione. Tuttavia, questa potenza comporta responsabilità, e garantire...

AI Responsabile: Oltre il Buzzword

La dottoressa Anna Zeiter sottolinea che "l'IA responsabile non è solo un termine di moda, ma un imperativo fondamentale" per garantire la fiducia e la responsabilità nell'uso delle tecnologie...

Integrare l’IA rispettando la compliance

L'adozione dell'IA nelle aziende e nella produzione sta fallendo almeno due volte più spesso di quanto non abbia successo. Il Cloud Security Alliance (CSA) afferma che il problema reale è che le...

La preservazione dei dati nell’era dell’IA generativa

Gli strumenti di intelligenza artificiale generativa (GAI) sollevano preoccupazioni legali come la privacy dei dati e la sicurezza. È fondamentale che le organizzazioni stabiliscano politiche di...

Intelligenza Artificiale Responsabile: Principi e Vantaggi

Oggi, l'IA sta cambiando il nostro modo di vivere e lavorare, quindi è molto importante utilizzarla nel modo giusto. L'IA responsabile significa creare e utilizzare IA che sia equa, chiara e...

Intelligenza Artificiale: Costruire Fiducia e Governance per il Successo Aziendale

Negli ultimi venti anni, l'intelligenza artificiale (AI) è diventata fondamentale per prendere decisioni aziendali e affrontare sfide complesse. È essenziale costruire fiducia nell'AI attraverso...

Regolamentazione dell’IA in Spagna: Innovazioni e Sfide

La Spagna è all'avanguardia nella governance dell'IA con il primo regolatore europeo per l'IA (AESIA) e una legge nazionale sull'IA in fase di sviluppo. Questa legge mira a implementare e integrare il...

Regolamentare l’IA: sfide e opportunità globali

L'intelligenza artificiale (AI) ha fatto enormi progressi negli ultimi anni, diventando sempre più presente nella consapevolezza pubblica. I governi e gli organismi di regolamentazione in tutto il...

AI e scommesse: opportunità e responsabilità nel futuro del gioco

L'implementazione dell'Intelligenza Artificiale (IA) nel settore del gioco d'azzardo offre opportunità significative, ma comporta anche crescenti aspettative normative e rischi di responsabilità. È...