La Piramide del Rischio nell’Atto UE sull’IA

Che cos’è la piramide di rischio della legge sull’IA dell’UE

Una delle caratteristiche distintive della legge sull’IA dell’UE è il suo approccio basato sul rischio. I sistemi di intelligenza artificiale non sono trattati in modo uniforme: il loro regolamento dipende dal livello di rischio che pongono per la sicurezza, i diritti e i valori della società. La legge dell’UE classifica i sistemi di IA in quattro livelli:

1. Rischio Inaccettabile

In cima alla piramide ci sono i sistemi di IA considerati così pericolosi per i diritti fondamentali (dignità, libertà e privacy) e la fiducia pubblica che sono vietati completamente. Questi includono:

  • Sistemi di scoring sociale (ad esempio, valutazione del comportamento dei cittadini per premi o punizioni).
  • Strumenti di polizia predittiva che valutano la probabilità che gli individui commettano crimini.
  • Videosorveglianza biometrica in tempo reale negli spazi pubblici, eccetto in casi molto ristretti e regolamentati (ad esempio, forze dell’ordine mirate).

2. Sistemi di IA ad Alto Rischio

Questa è la categoria più ampia e complessa. I sistemi ad alto rischio sono consentiti, ma sotto condizioni rigorose perché operano in aree in cui errori o pregiudizi potrebbero avere conseguenze gravi per gli individui. Questi includono IA utilizzata in:

  • Dispositivi medici
  • Infrastrutture critiche come forniture energetiche e idriche
  • Occupazione e reclutamento (ad esempio, filtraggio di CV o interviste automatizzate)
  • Istruzione (ad esempio, valutazione degli esami o previsioni di voto)
  • Servizi finanziari (ad esempio, scoring creditizio)

I fornitori di sistemi di IA ad alto rischio devono soddisfare sette criteri, tra cui:

  • Un sistema di gestione del rischio durante tutto il ciclo di vita.
  • Dataset di alta qualità per ridurre al minimo i pregiudizi e garantire le prestazioni.
  • Meccanismi di supervisione umana per prevenire danni derivanti dall’automazione.
  • Documentazione tecnica robusta e registrazione.
  • Trasparenza per garantire che gli utenti comprendano come funziona l’IA.
  • Garanzia di accuratezza, robustezza e sicurezza informatica.
  • Un sistema di gestione della qualità completo, allineato con le leggi sulla sicurezza dei prodotti dell’UE.

Questo è un territorio inesplorato per molte aziende tecnologiche. La maggior parte è abituata a uno sviluppo agile, non a una conformità di tipo regolatorio. Soddisfare queste obbligazioni richiederà nuove pratiche ingegneristiche, team più cross-funzionali e un investimento significativo.

3. Rischio Limitato

I sistemi di IA in questa categoria non pongono seri rischi ma richiedono comunque che gli utenti sappiano quando è coinvolta l’IA, motivo per cui portano comunque obblighi di trasparenza. Ad esempio:

  • I chatbot devono chiaramente divulgare che gli utenti stanno interagendo con una macchina.
  • Gli strumenti di IA generativa devono etichettare i contenuti sintetici (ad esempio, immagini o video generati dall’IA).

4. Rischio Minimo

Alla base della piramide ci sono i sistemi di IA con poco o nessun rischio, applicazioni di IA quotidiane con basse scommesse e nessun impatto reale sulla sicurezza o sui diritti, come:

  • Filtri antispam
  • IA utilizzata nei videogiochi
  • Algoritmi di raccomandazione per film o musica

Tuttavia, devono comunque conformarsi alle leggi esistenti (come le leggi sulla protezione dei consumatori e anti-discriminazione), e i fornitori sono incoraggiati a seguire codici di condotta volontari.

In conclusione, la legge sull’IA dell’UE rappresenta un passo significativo verso una regolamentazione più rigorosa e consapevole nell’era dell’IA. Con un approccio stratificato al rischio, si cerca di bilanciare l’innovazione con la protezione dei diritti fondamentali.

More Insights

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Sicurezza: Affrontare la Nuova Era delle Minacce

Le organizzazioni devono affrontare una nuova realtà: l'IA sta rapidamente rimodellando il panorama delle minacce informatiche. Mentre l'IA aiuta a migliorare la rilevazione e la risposta, porta anche...

Governare l’Intelligenza Artificiale: Verso un Futuro Sostenibile

La Thailandia ha redatto principi per la legislazione sull'intelligenza artificiale (AI), mirando a stabilire un ecosistema AI e ad ampliare l'adozione. La nuova legge dovrebbe fornire protezione agli...

Leggi Texane per una Governance Responsabile dell’Intelligenza Artificiale in Sanità

Il Texas ha adottato leggi complete sulla governance dell'intelligenza artificiale con disposizioni specifiche per il settore sanitario, inclusa la legge HB 149. Questa legge stabilisce un quadro per...

Intelligenza Artificiale: Garanzia di Allineamento e Governance

Gillian K. Hadfield è stata nominata Professore Distinto Bloomberg di Allineamento e Governance dell'IA presso la Johns Hopkins University. È riconosciuta a livello internazionale per la sua ricerca...

Il lato oscuro della pornografia con cambio di volto

Con l'evoluzione della tecnologia AI, gli strumenti di face swap vengono sempre più sfruttati in modo dannoso, in particolare nella pornografia con scambi di volto. Questo articolo esplora le...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Governanza Etica e Inclusiva dell’AI in Indonesia

Il Ministero della Comunicazione e del Digitale dell'Indonesia ha ribadito il proprio impegno a integrare principi etici e di inclusione nelle proprie politiche sull'intelligenza artificiale (AI). Il...