Quando un sistema diventa intelligenza artificiale?

Quanti neuroni deve elaborare un sistema prima di poterlo chiamare AI? Analisi delle linee guida sulla definizione di intelligenza artificiale dell’AI Act

La questione su quanti neuroni un sistema deve elaborare prima di poter essere classificato come intelligenza artificiale (AI) è simile alla famosa domanda di Bob Dylan: “Quante strade deve percorrere un uomo prima di poterlo chiamare uomo?”. Questo interrogativo, purtroppo, non ha una risposta semplice e si riflette anche nel dilemma filosofico affrontato dall’AI Act dell’UE (Regolamento 2024/1689): quando un sistema può essere considerato AI?

Le linee guida recentemente pubblicate dalla Commissione mirano a tracciare una distinzione tra software tradizionale e sistemi AI, cercando di “chiarire” la definizione dell’Atto. Tuttavia, questo sforzo sembra vano, poiché le distinzioni fatte dalle linee guida non sono convincenti.

Dove tracciamo la linea?

Le linee guida si concentrano principalmente sulla distinzione tra le diverse tecniche di elaborazione delle informazioni. Tuttavia, non esiste una distinzione intrinseca tra le operazioni di base di calcolo che sostengono le tecniche designate come AI e quelle descritte come software tradizionale. Entrambe si basano sulle stesse operazioni fondamentali eseguite dall’hardware di calcolo.

Ci si aspetterebbe che una rete neurale fosse classificata come AI. Tuttavia, un singolo neurone in una rete neurale esegue semplicemente operazioni matematiche di base, come moltiplicazione e addizione. Un modello di regressione lineare compie operazioni simili, applicando somme pesate a variabili di input per produrre un output. Ma l’AI Act classificherebbe il secondo come software tradizionale, mentre una rete di neuroni sufficientemente grande diventa improvvisamente un sistema AI. Perché?

Le linee guida non possono specificare in modo sensato quando esattamente un sistema passa da un calcolo di base a un’inferenza guidata dall’AI. È quando un modello passa da una rete neurale a un singolo strato a una rete multilivello? O quando smette di utilizzare regole predefinite e inizia a ottimizzare le prestazioni? Le linee guida non forniscono risposte chiare a queste domande.

Il problema dell’inferenza: AI vs. non-AI

Le linee guida definiscono l’inferenza come la caratteristica chiave che separa l’AI dal software tradizionale. Tuttavia, molti sistemi non AI “inferiscono” in modi significativi, come ad esempio:

  • sistemi esperti basati su regole che derivano conclusioni da conoscenze codificate;
  • modelli bayesiani che aggiornano dinamicamente le probabilità;
  • modelli di regressione che prevedono risultati basati su dati di addestramento.

Le linee guida escludono arbitrariamente questi sistemi dalla definizione di AI, mentre includono modelli di apprendimento profondo che eseguono funzioni simili su scala più ampia. Questa classificazione arbitraria suggerisce che l’AI non è definita da ciò che fa, ma da quanto sembra complicata.

Adattabilità vs modelli pre-addestrati

Un altro criterio nella definizione di AI dell’AI Act è “adattabilità”, ovvero la capacità di un sistema di apprendere o modificare il proprio comportamento dopo il dispiegamento. Anche in questo caso, non esiste una linea chiara tra le ultime tecniche di AI e i metodi di elaborazione delle informazioni più tradizionali. Ad esempio, molti sistemi AI “machine learning” moderni non si adattano dopo il dispiegamento, mentre altri sistemi più tradizionali possono adattarsi dinamicamente ai dati elaborati.

Se una rete neurale statica addestrata su dati passati è considerata AI, ma un sistema non ML che si aggiorna dinamicamente non lo è, la guida non cattura ciò che rende veramente un sistema adattabile.

Un focus sulla forma piuttosto che sulla funzione

Le linee guida cercano di separare l’AI dal software tradizionale in base alle tecniche piuttosto che alla funzionalità. Classificano:

  • l’apprendimento automatico, l’apprendimento profondo e l’AI basata sulla logica come AI;
  • metodi statistici classici, euristiche e alcune tecniche di ottimizzazione come non-AI.

Tuttavia, nelle applicazioni reali, queste tecniche sono spesso mescolate. Perché un avanzato classificatore ad albero decisionale dovrebbe essere considerato AI mentre una complessa rete bayesiana no? Questa distinzione crea un problema di “cliff edge” normativo, imponendo un onere significativo agli sviluppatori e utenti.

Un approccio più pratico: l’AI come spettro

Invece di cercare di definire l’AI attraverso tecniche computazionali specifiche, un approccio normativo più efficace potrebbe concentrarsi sulle caratteristiche funzionali, in particolare sul livello di adattabilità e autonomia che un sistema presenta. Questo approccio prende spunto dalla proposta del governo del Regno Unito del 2022 per definire l’AI regolamentata, che suggeriva che i sistemi AI dovrebbero essere valutati in base a due qualità chiave:

  1. Adattabilità – La misura in cui un sistema può cambiare il proprio comportamento nel tempo, in modi che possono essere imprevedibili o difficili da controllare.
  2. Autonomia – Il grado in cui un sistema può operare senza supervisione umana diretta, in particolare quando le sue decisioni hanno conseguenze nel mondo reale.

Sotto questo modello, maggiore è l’adattabilità e l’autonomia di un sistema, maggiore è la preoccupazione normativa. Un sistema altamente adattabile e autonomo pone il maggior rischio potenziale, poiché potrebbe prendere decisioni che evolvono oltre l’intenzione o il controllo umano.

Un tale approccio si presta a un modello a quattro quadranti:

  • I sistemi a bassa adattabilità e bassa autonomia (ad esempio, automazione semplice, sistemi esperti basati su regole) potrebbero rimanere non regolamentati o soggetti a requisiti leggeri.
  • I sistemi ad alta autonomia ma bassa adattabilità (ad esempio, modelli pre-addestrati che eseguono funzioni automatizzate in contesti critici) potrebbero richiedere misure di supervisione ma non restrizioni estensive.
  • I sistemi altamente adattabili ma a bassa autonomia (ad esempio, modelli di machine learning che migliorano nel tempo ma operano in un ambiente controllato) potrebbero richiedere obblighi di trasparenza per garantire che rimangano sicuri.
  • I sistemi altamente adattabili e altamente autonomi (ad esempio, AI auto-migliorativa impiegata in ambienti ad alto rischio) richiederebbero il massimo livello di scrutinio e intervento normativo.

Conclusione: la risposta è ancora nel vento

Prima della pubblicazione delle linee guida, si poteva riassumere la definizione di un sistema AI dell’AI Act come probabilmente comprensiva di qualsiasi sistema di calcolo complesso su larga scala. Sebbene ampia, questa interpretazione forniva una chiara comprensione: se un sistema elabora dati generando output oltre il semplice seguire regole, probabilmente rientra nell’Atto.

Dopo le linee guida, tuttavia, la situazione è meno chiara. La definizione sembra ancora includere qualsiasi sistema di calcolo complesso, ma ora con una serie di eccezioni apparentemente arbitrarie basate su tecniche specifiche piuttosto che su capacità fondamentali. La regressione lineare è esclusa, ma l’apprendimento profondo è incluso. L’inferenza bayesiana è ignorata, ma l’AI basata sulla logica è inclusa. I metodi di ottimizzazione tradizionali sono esenti, a meno che non assomiglino troppo all’apprendimento automatico.

Le linee guida, quindi, sollevano più domande di quante ne rispondano. Cosa distingue realmente l’AI dal non-AI? Dov’è la linea tra “elaborazione dei dati di base” e “inferenza”? A che punto un algoritmo di ottimizzazione diventa AI? Questo tentativo di definire l’AI da parte della Commissione sembra più un esercizio di tracciamento di confini dove non esistono naturalmente.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...