Che cos’è la piramide di rischio della legge sull’IA dell’UE
Una delle caratteristiche distintive della legge sull’IA dell’UE è il suo approccio basato sul rischio. I sistemi di intelligenza artificiale non sono trattati in modo uniforme: il loro regolamento dipende dal livello di rischio che pongono per la sicurezza, i diritti e i valori della società. La legge dell’UE classifica i sistemi di IA in quattro livelli:
1. Rischio Inaccettabile
In cima alla piramide ci sono i sistemi di IA considerati così pericolosi per i diritti fondamentali (dignità, libertà e privacy) e la fiducia pubblica che sono vietati completamente. Questi includono:
- Sistemi di scoring sociale (ad esempio, valutazione del comportamento dei cittadini per premi o punizioni).
- Strumenti di polizia predittiva che valutano la probabilità che gli individui commettano crimini.
- Videosorveglianza biometrica in tempo reale negli spazi pubblici, eccetto in casi molto ristretti e regolamentati (ad esempio, forze dell’ordine mirate).
2. Sistemi di IA ad Alto Rischio
Questa è la categoria più ampia e complessa. I sistemi ad alto rischio sono consentiti, ma sotto condizioni rigorose perché operano in aree in cui errori o pregiudizi potrebbero avere conseguenze gravi per gli individui. Questi includono IA utilizzata in:
- Dispositivi medici
- Infrastrutture critiche come forniture energetiche e idriche
- Occupazione e reclutamento (ad esempio, filtraggio di CV o interviste automatizzate)
- Istruzione (ad esempio, valutazione degli esami o previsioni di voto)
- Servizi finanziari (ad esempio, scoring creditizio)
I fornitori di sistemi di IA ad alto rischio devono soddisfare sette criteri, tra cui:
- Un sistema di gestione del rischio durante tutto il ciclo di vita.
- Dataset di alta qualità per ridurre al minimo i pregiudizi e garantire le prestazioni.
- Meccanismi di supervisione umana per prevenire danni derivanti dall’automazione.
- Documentazione tecnica robusta e registrazione.
- Trasparenza per garantire che gli utenti comprendano come funziona l’IA.
- Garanzia di accuratezza, robustezza e sicurezza informatica.
- Un sistema di gestione della qualità completo, allineato con le leggi sulla sicurezza dei prodotti dell’UE.
Questo è un territorio inesplorato per molte aziende tecnologiche. La maggior parte è abituata a uno sviluppo agile, non a una conformità di tipo regolatorio. Soddisfare queste obbligazioni richiederà nuove pratiche ingegneristiche, team più cross-funzionali e un investimento significativo.
3. Rischio Limitato
I sistemi di IA in questa categoria non pongono seri rischi ma richiedono comunque che gli utenti sappiano quando è coinvolta l’IA, motivo per cui portano comunque obblighi di trasparenza. Ad esempio:
- I chatbot devono chiaramente divulgare che gli utenti stanno interagendo con una macchina.
- Gli strumenti di IA generativa devono etichettare i contenuti sintetici (ad esempio, immagini o video generati dall’IA).
4. Rischio Minimo
Alla base della piramide ci sono i sistemi di IA con poco o nessun rischio, applicazioni di IA quotidiane con basse scommesse e nessun impatto reale sulla sicurezza o sui diritti, come:
- Filtri antispam
- IA utilizzata nei videogiochi
- Algoritmi di raccomandazione per film o musica
Tuttavia, devono comunque conformarsi alle leggi esistenti (come le leggi sulla protezione dei consumatori e anti-discriminazione), e i fornitori sono incoraggiati a seguire codici di condotta volontari.
In conclusione, la legge sull’IA dell’UE rappresenta un passo significativo verso una regolamentazione più rigorosa e consapevole nell’era dell’IA. Con un approccio stratificato al rischio, si cerca di bilanciare l’innovazione con la protezione dei diritti fondamentali.