Quando un sistema diventa intelligenza artificiale?

Quanti neuroni deve elaborare un sistema prima di poterlo chiamare AI? Analisi delle linee guida sulla definizione di intelligenza artificiale dell’AI Act

La questione su quanti neuroni un sistema deve elaborare prima di poter essere classificato come intelligenza artificiale (AI) è simile alla famosa domanda di Bob Dylan: “Quante strade deve percorrere un uomo prima di poterlo chiamare uomo?”. Questo interrogativo, purtroppo, non ha una risposta semplice e si riflette anche nel dilemma filosofico affrontato dall’AI Act dell’UE (Regolamento 2024/1689): quando un sistema può essere considerato AI?

Le linee guida recentemente pubblicate dalla Commissione mirano a tracciare una distinzione tra software tradizionale e sistemi AI, cercando di “chiarire” la definizione dell’Atto. Tuttavia, questo sforzo sembra vano, poiché le distinzioni fatte dalle linee guida non sono convincenti.

Dove tracciamo la linea?

Le linee guida si concentrano principalmente sulla distinzione tra le diverse tecniche di elaborazione delle informazioni. Tuttavia, non esiste una distinzione intrinseca tra le operazioni di base di calcolo che sostengono le tecniche designate come AI e quelle descritte come software tradizionale. Entrambe si basano sulle stesse operazioni fondamentali eseguite dall’hardware di calcolo.

Ci si aspetterebbe che una rete neurale fosse classificata come AI. Tuttavia, un singolo neurone in una rete neurale esegue semplicemente operazioni matematiche di base, come moltiplicazione e addizione. Un modello di regressione lineare compie operazioni simili, applicando somme pesate a variabili di input per produrre un output. Ma l’AI Act classificherebbe il secondo come software tradizionale, mentre una rete di neuroni sufficientemente grande diventa improvvisamente un sistema AI. Perché?

Le linee guida non possono specificare in modo sensato quando esattamente un sistema passa da un calcolo di base a un’inferenza guidata dall’AI. È quando un modello passa da una rete neurale a un singolo strato a una rete multilivello? O quando smette di utilizzare regole predefinite e inizia a ottimizzare le prestazioni? Le linee guida non forniscono risposte chiare a queste domande.

Il problema dell’inferenza: AI vs. non-AI

Le linee guida definiscono l’inferenza come la caratteristica chiave che separa l’AI dal software tradizionale. Tuttavia, molti sistemi non AI “inferiscono” in modi significativi, come ad esempio:

  • sistemi esperti basati su regole che derivano conclusioni da conoscenze codificate;
  • modelli bayesiani che aggiornano dinamicamente le probabilità;
  • modelli di regressione che prevedono risultati basati su dati di addestramento.

Le linee guida escludono arbitrariamente questi sistemi dalla definizione di AI, mentre includono modelli di apprendimento profondo che eseguono funzioni simili su scala più ampia. Questa classificazione arbitraria suggerisce che l’AI non è definita da ciò che fa, ma da quanto sembra complicata.

Adattabilità vs modelli pre-addestrati

Un altro criterio nella definizione di AI dell’AI Act è “adattabilità”, ovvero la capacità di un sistema di apprendere o modificare il proprio comportamento dopo il dispiegamento. Anche in questo caso, non esiste una linea chiara tra le ultime tecniche di AI e i metodi di elaborazione delle informazioni più tradizionali. Ad esempio, molti sistemi AI “machine learning” moderni non si adattano dopo il dispiegamento, mentre altri sistemi più tradizionali possono adattarsi dinamicamente ai dati elaborati.

Se una rete neurale statica addestrata su dati passati è considerata AI, ma un sistema non ML che si aggiorna dinamicamente non lo è, la guida non cattura ciò che rende veramente un sistema adattabile.

Un focus sulla forma piuttosto che sulla funzione

Le linee guida cercano di separare l’AI dal software tradizionale in base alle tecniche piuttosto che alla funzionalità. Classificano:

  • l’apprendimento automatico, l’apprendimento profondo e l’AI basata sulla logica come AI;
  • metodi statistici classici, euristiche e alcune tecniche di ottimizzazione come non-AI.

Tuttavia, nelle applicazioni reali, queste tecniche sono spesso mescolate. Perché un avanzato classificatore ad albero decisionale dovrebbe essere considerato AI mentre una complessa rete bayesiana no? Questa distinzione crea un problema di “cliff edge” normativo, imponendo un onere significativo agli sviluppatori e utenti.

Un approccio più pratico: l’AI come spettro

Invece di cercare di definire l’AI attraverso tecniche computazionali specifiche, un approccio normativo più efficace potrebbe concentrarsi sulle caratteristiche funzionali, in particolare sul livello di adattabilità e autonomia che un sistema presenta. Questo approccio prende spunto dalla proposta del governo del Regno Unito del 2022 per definire l’AI regolamentata, che suggeriva che i sistemi AI dovrebbero essere valutati in base a due qualità chiave:

  1. Adattabilità – La misura in cui un sistema può cambiare il proprio comportamento nel tempo, in modi che possono essere imprevedibili o difficili da controllare.
  2. Autonomia – Il grado in cui un sistema può operare senza supervisione umana diretta, in particolare quando le sue decisioni hanno conseguenze nel mondo reale.

Sotto questo modello, maggiore è l’adattabilità e l’autonomia di un sistema, maggiore è la preoccupazione normativa. Un sistema altamente adattabile e autonomo pone il maggior rischio potenziale, poiché potrebbe prendere decisioni che evolvono oltre l’intenzione o il controllo umano.

Un tale approccio si presta a un modello a quattro quadranti:

  • I sistemi a bassa adattabilità e bassa autonomia (ad esempio, automazione semplice, sistemi esperti basati su regole) potrebbero rimanere non regolamentati o soggetti a requisiti leggeri.
  • I sistemi ad alta autonomia ma bassa adattabilità (ad esempio, modelli pre-addestrati che eseguono funzioni automatizzate in contesti critici) potrebbero richiedere misure di supervisione ma non restrizioni estensive.
  • I sistemi altamente adattabili ma a bassa autonomia (ad esempio, modelli di machine learning che migliorano nel tempo ma operano in un ambiente controllato) potrebbero richiedere obblighi di trasparenza per garantire che rimangano sicuri.
  • I sistemi altamente adattabili e altamente autonomi (ad esempio, AI auto-migliorativa impiegata in ambienti ad alto rischio) richiederebbero il massimo livello di scrutinio e intervento normativo.

Conclusione: la risposta è ancora nel vento

Prima della pubblicazione delle linee guida, si poteva riassumere la definizione di un sistema AI dell’AI Act come probabilmente comprensiva di qualsiasi sistema di calcolo complesso su larga scala. Sebbene ampia, questa interpretazione forniva una chiara comprensione: se un sistema elabora dati generando output oltre il semplice seguire regole, probabilmente rientra nell’Atto.

Dopo le linee guida, tuttavia, la situazione è meno chiara. La definizione sembra ancora includere qualsiasi sistema di calcolo complesso, ma ora con una serie di eccezioni apparentemente arbitrarie basate su tecniche specifiche piuttosto che su capacità fondamentali. La regressione lineare è esclusa, ma l’apprendimento profondo è incluso. L’inferenza bayesiana è ignorata, ma l’AI basata sulla logica è inclusa. I metodi di ottimizzazione tradizionali sono esenti, a meno che non assomiglino troppo all’apprendimento automatico.

Le linee guida, quindi, sollevano più domande di quante ne rispondano. Cosa distingue realmente l’AI dal non-AI? Dov’è la linea tra “elaborazione dei dati di base” e “inferenza”? A che punto un algoritmo di ottimizzazione diventa AI? Questo tentativo di definire l’AI da parte della Commissione sembra più un esercizio di tracciamento di confini dove non esistono naturalmente.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...