Definizione di un Sistema AI: Linee Guida della Commissione Europea

Linee Guida della Commissione Europea sulla Definizione di un “Sistema di IA”

Il 5 febbraio 2025, la Commissione Europea ha pubblicato due set di linee guida per chiarire aspetti chiave del Regolamento sull’Intelligenza Artificiale (“AI Act”): le Linee Guida sulla definizione di un sistema di IA e le Linee Guida sulle pratiche di IA proibite. Queste linee guida hanno lo scopo di fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025.

Definire un “Sistema di IA” ai sensi dell’AI Act

Il Regolamento sull’IA (Articolo 3(1)) definisce un “sistema di IA” come un (1) sistema basato su macchine; (2) progettato per operare con livelli variabili di autonomia; (3) che può mostrare adattabilità dopo il dispiegamento; (4) e che, per obiettivi espliciti o impliciti; (5) deduce, dagli input ricevuti, come generare output; (6) come previsioni, contenuti, raccomandazioni o decisioni; (7) che possono influenzare ambienti fisici o virtuali. Le linee guida sulla definizione del sistema di IA forniscono indicazioni esplicative su ciascuno di questi sette elementi.

Elementi chiave delle linee guida

  • Basato su macchine. Il termine “basato su macchine” si riferisce al fatto che i sistemi di IA sono sviluppati e operano su macchine. Include una vasta gamma di sistemi computazionali, compresi i sistemi di calcolo quantistico emergenti.
  • Autonomia. Il concetto di “livelli variabili di autonomia” si riferisce alla capacità del sistema di operare con un certo grado di indipendenza dall’intervento umano. I sistemi progettati per operare esclusivamente con il pieno coinvolgimento umano non rientrano nella definizione di sistema di IA.
  • Adattabilità. L’adattabilità dopo il dispiegamento si riferisce alle capacità di autoapprendimento di un sistema, consentendo al suo comportamento di cambiare mentre è in uso. Tuttavia, non è una condizione necessaria per qualificarsi come sistema di IA.
  • Obiettivi. Gli obiettivi sono i fini espliciti o impliciti del compito da svolgere da parte del sistema di IA. Le linee guida distinguono tra gli “obiettivi” interni al sistema e il “fine previsto” esterno.
  • Deduzione e tecniche di IA. La capacità di dedurre come generare output dagli input ricevuti è una condizione indispensabile dei sistemi di IA. Le tecniche che abilitano la deduzione includono l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento profondo.
  • Output. Gli output possono includere previsioni, contenuti, raccomandazioni e decisioni. Questi rappresentano le diverse modalità attraverso cui un sistema di IA può influenzare gli ambienti in cui è impiegato.
  • Interazione con l’ambiente. L’interazione con l’ambiente implica che il sistema di IA non è passivo, ma ha un impatto attivo sull’ambiente in cui è impiegato, che può essere fisico o virtuale.

In conclusione, le linee guida sottolineano che sistemi più semplici, come quelli basati su approcci di programmazione tradizionali, non rientrano nella definizione di sistema di IA a causa della loro limitata capacità di analizzare modelli e regolare autonomamente i loro output.

Le informazioni qui presentate forniscono una panoramica utile per comprendere i criteri di classificazione dei sistemi di IA secondo la legislazione europea, e il contesto normativo in evoluzione che circonda questa tecnologia emergente.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...