AI Act in a nutshell
Il AI Act dell’UE è una regolamentazione globale già implementata in Europa, con il divieto di sistemi di intelligenza artificiale con rischi inaccettabili a partire da febbraio 2025. Questa legge si applica ai fornitori e agli utilizzatori di sistemi di intelligenza artificiale all’interno dell’UE, con l’obiettivo di garantire la sicurezza del prodotto e mitigare i rischi associati all’uso dell’IA.
Obiettivi principali
Gli obiettivi chiave dell’AI Act includono:
- Creare un framework di fiducia per l’adozione dell’IA
- Promuovere l’innovazione responsabile
- Proteggere i diritti fondamentali e i dati degli utenti
Scadenze chiave
Le principali scadenze temporali relative all’AI Act sono:
- Agosto 2024: Inizio della legge
- Febbraio 2025: Divieto di sistemi IA a rischio inaccettabile
- Maggio 2025: Pronti i Codici di Pratica dell’Ufficio IA
- Agosto 2025: Regolamenti dei modelli GPAI in vigore
- Agosto 2026: Applicazione completa a tutti i sistemi IA
Struttura di governance
L’AI Act crea una struttura di governance a due livelli:
- Autorità nazionali che supervisionano i sistemi IA
- Commissione Europea e Ufficio IA che regolano i modelli di IA di uso generale
Sebbene la complessità legale sia significativa, l’obiettivo è chiaro: rendere l’IA affidabile mentre si promuove l’innovazione.
Classificazione dei rischi
La legge introduce un sistema di classificazione dei rischi a quattro livelli che è fondamentale comprendere:
- Rischio inaccettabile (PROIBITO): sistemi di scoring sociale, riconoscimento emotivo nei luoghi di lavoro/istruzione, sistemi di categorizzazione biometrica che inferiscono attributi sensibili, scraping di immagini facciali da internet, IA manipolativa o ingannevole.
- Rischio elevato: dispositivi medici, sistemi di reclutamento, infrastrutture critiche, istruzione e formazione professionale, sistemi di giustizia.
- Rischio di trasparenza specifica: chatbot, deepfake, contenuti generati dall’IA → Devono chiaramente divulgare di essere generati dall’IA.
- Rischio minimo: filtri anti-spam, IA nei videogiochi, la maggior parte delle applicazioni commerciali.
Le sanzioni per le violazioni delle pratiche proibite sono severe: fino al 7% del fatturato annuale globale o 35 milioni di euro.
Prima di implementare qualsiasi sistema IA, è necessario assicurarsi dell’uso del sistema e valutare il suo rischio, il che determinerà le esigenze di conformità.
Processi e governance
Parlare di conformità significa anche parlare di processi e governance. Le aziende devono affrontare diverse sfide per conformarsi all’AI Act a causa della sua complessità e dei requisiti stringenti.
Le aziende possono navigare in questo nuovo framework normativo con il supporto di organizzazioni che offrono soluzioni per l’audit intelligente della conformità dei sistemi di IA.
Conclusione
Il AI Act rappresenta un passo significativo verso un’adozione sicura e responsabile dell’intelligenza artificiale nell’UE, stabilendo standard chiari per la protezione dei diritti e la promozione dell’innovazione.