Linee guida europee per la definizione dei sistemi di intelligenza artificiale

Linee guida della Commissione Europea sulla definizione dei sistemi di intelligenza artificiale

La Commissione Europea ha emesso linee guida complete e attese da tempo sulla definizione dei sistemi di intelligenza artificiale, come stabilito dal Regolamento (UE) 2024/1689 (AI Act). Con queste linee guida pratiche, la Commissione mira ad aiutare fornitori, utilizzatori, importatori e distributori di sistemi di intelligenza artificiale a determinare se un sistema costituisce un sistema AI secondo il significato dell’AI Act, facilitando così l’applicazione e l’applicazione efficace di tale legge. La definizione di sistemi di AI è entrata in vigore il 2 febbraio 2025.

Elementi chiave della definizione di sistema AI

Data la natura diversificata dei sistemi di AI, le linee guida non possono fornire un elenco esaustivo. Ogni sistema deve essere valutato in base alle sue caratteristiche specifiche.

L’AI Act segue un approccio basato sul ciclo di vita e definisce un sistema di AI come segue: (1) un sistema basato su macchine, (2) progettato per operare con livelli variabili di autonomia, (3) che può mostrare adattabilità dopo il dispiegamento, (4) e, per obiettivi espliciti o impliciti, (5) inferisce dagli input ricevuti come generare output, (6) come previsioni, contenuti, raccomandazioni o decisioni (7) che possono influenzare ambienti fisici o virtuali.

Questa definizione in sette punti copre due fasi principali: la fase di pre-dispiegamento (fase di costruzione) e la fase di post-dispiegamento (fase d’uso). Non tutti e sette gli elementi devono essere presenti in entrambe le fasi; alcuni possono apparire solo in una fase.

Riepilogo dei sette punti

1. Sistema basato su macchine

I sistemi di AI sono sistemi basati su macchine, il che significa che sono sviluppati e operano su macchine e si basano su componenti hardware e software per funzionare. L’hardware include unità di elaborazione, memoria, dispositivi di archiviazione e interfacce di rete, mentre il software consiste in codice informatico, sistemi operativi e applicazioni che abilitano l’elaborazione dei dati e l’esecuzione dei compiti.

2. Autonomia

L’autonomia di un sistema di AI si riferisce alla sua capacità di operare con livelli variabili di indipendenza dal coinvolgimento umano. I sistemi di AI variano da quelli che operano con pieno coinvolgimento umano e intervento a quelli completamente autonomi, con molti che si collocano tra questi estremi. Un sistema che elabora input forniti manualmente per generare un output in modo indipendente, o un sistema esperto che produce raccomandazioni basate su automazione delegata, si qualifica ancora come avente un certo grado di indipendenza di azione.

Il livello di autonomia del sistema di AI è cruciale per i fornitori quando si tratta di determinare il rischio del sistema di AI e gli obblighi di conformità e implementare misure di sicurezza per il dispiegamento dell’AI.

3. Adattabilità

L’adattabilità, che non è un requisito obbligatorio della definizione di sistema di AI, si riferisce alla capacità di un sistema di AI di mostrare capacità di auto-apprendimento dopo il dispiegamento, permettendo al suo comportamento di cambiare nel tempo e produrre risultati diversi per gli stessi input.

4. Obiettivi del sistema AI

I sistemi di AI sono progettati per operare sulla base di obiettivi espliciti o impliciti che guidano la loro funzionalità. Gli obiettivi espliciti sono obiettivi chiaramente definiti direttamente codificati dagli sviluppatori, mentre gli obiettivi impliciti emergono dal comportamento del sistema, dai dati di addestramento o dalle interazioni con il suo ambiente. Gli obiettivi di un sistema di AI possono differire dal suo scopo previsto.

5. Inferenza per generare output utilizzando tecniche AI

Una caratteristica chiave di un sistema di AI è la sua capacità di inferire come generare output dagli input ricevuti, distinguendolo così dal software tradizionale. Il processo di inferenza consente ai sistemi di AI di produrre previsioni, contenuti, raccomandazioni o decisioni che influenzano ambienti fisici e virtuali.

6. Output che possono influenzare ambienti fisici o virtuali

Una caratteristica chiave dei sistemi di AI è la loro capacità di generare output che possono influenzare ambienti fisici o virtuali. Questi output rientrano in quattro categorie – previsioni, generazione di contenuti, raccomandazioni e decisioni, ciascuna variando nel livello di coinvolgimento umano.

7. Interazione con l’ambiente

Gli output dei sistemi di AI influenzano attivamente ambienti fisici e virtuali, influenzando oggetti tangibili come robot e spazi digitali come flussi di dati ed ecosistemi software.

Sistemi al di fuori dell’ambito della definizione di sistema AI

La definizione di sistema AI non copre sistemi basati su regole definite esclusivamente da persone fisiche per eseguire automaticamente operazioni. Questi sistemi possono includere:

  1. Sistemi per migliorare l’ottimizzazione matematica, poiché non trascendono il ‘basic data processing’.
  2. Sistemi di elaborazione dati di base che seguono istruzioni predefinite senza ‘apprendimento, ragionamento o modellazione’.
  3. Sistemi basati su euristiche classiche, che applicano regole predefinite per derivare soluzioni senza adattabilità.
  4. Sistemi di previsione semplici che possono essere realizzati tramite una semplice regola di apprendimento statistico.

Per consigli su come navigare in queste normative e garantire che i vostri sistemi di AI soddisfino gli standard richiesti, contattate esperti del settore.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...