Legge sull’IA dell’UE: Divieto di pratiche di IA e regole di alfabetizzazione IA ora in vigore
Con l’approvazione della prima scadenza di conformità importante della Legge sull’IA dell’UE il 2 febbraio 2025, i regolatori dell’UE hanno ufficialmente vietato alcune applicazioni di IA ad alto rischio. Le aziende che sviluppano o implementano sistemi di IA devono ora attuare misure per garantire che il personale che opera questi sistemi possieda un livello sufficiente di alfabetizzazione IA.
Pochi giorni dopo, la Commissione Europea ha rilasciato linee guida tanto attese che chiariscono l’ambito del divieto, spiegano la sua razionalità e forniscono esempi pratici, tutti preziosi per comprendere l’applicabilità della legge.
Pratiche di IA Proibite
L’Articolo 5 della Legge sull’IA dell’UE vieta le applicazioni di IA che pongono rischi inaccettabili per i diritti fondamentali e i valori fondamentali dell’Unione. In particolare, la legge vieta la vendita (“immissione sul mercato”), il dispiegamento (“messa in servizio”) o l’uso di qualsiasi sistema di IA che:
- Utilizzi tecniche subliminali, manipolative o ingannevoli con l’effetto di distorcere il comportamento di una persona o compromettere la sua capacità decisionale;
- Sfrutti le vulnerabilità di una persona o di un gruppo di persone in base alla loro età, disabilità o stato socio-economico;
- Valuti individui o gruppi in base al loro comportamento sociale o ai tratti della personalità con punteggi sociali che portano a trattamenti dannosi o ingiusti;
- Valuti o preveda il rischio che una persona commetta un reato basandosi esclusivamente su profili o valutazioni del loro comportamento;
- Crea o amplia database di riconoscimento facciale attraverso il scraping non mirato di immagini facciali da Internet o CCTV;
- Infers le emozioni di un individuo sul lavoro o in un’istituzione educativa;
- Utilizzi la categorizzazione biometrica per assegnare individui in base ai loro dati biometrici per inferire determinate caratteristiche demografiche sensibili;
- Raccoglie dati biometrici “in tempo reale” in spazi pubblici ai fini dell’applicazione della legge.
Le proibizioni includono un’esenzione specifica per l’uso di sistemi di IA progettati per inferire emozioni in contesti lavorativi o educativi, ma solo per scopi medici o di sicurezza. Questa eccezione riflette l’impegno dei regolatori a bilanciare l’innovazione dell’IA con la protezione dei diritti dei consumatori.
Alfabetizzazione IA
Le disposizioni sull’alfabetizzazione IA ai sensi dell’Articolo 4 della Legge sull’IA dell’UE sono entrate in vigore anche il 2 febbraio 2025. Sotto questi nuovi obblighi, i fornitori e i distributori di sistemi di IA devono garantire un livello “sufficiente” di alfabetizzazione IA tra il loro personale. L’alfabetizzazione IA è definita come le competenze, le conoscenze e la comprensione necessarie per prendere decisioni informate sull’implementazione dei sistemi di IA e per essere consapevoli delle opportunità, dei rischi e dei potenziali danni che questi sistemi possono causare.
Questo standard soggettivo si applica a tutto il personale coinvolto nell’operazione e nell’uso del sistema di IA per conto dell’organizzazione, indipendentemente dalle loro conoscenze tecniche, esperienza, istruzione o formazione.
Prossimi Passi
Il primo passo sarà valutare e documentare se la propria attività sta utilizzando applicazioni di IA vietate ai sensi dell’Articolo 5 della Legge sull’IA dell’UE. Se sì, la prossima priorità è coinvolgere le parti interessate chiave, iniziare a dismettere i sistemi di IA applicabili e, infine, interromperne l’uso.
È consigliabile stabilire procedure per identificare future iniziative di IA che potrebbero intersecarsi con il divieto, implementare la formazione dei dipendenti per garantire una comprensione di base della conformità tra i vari team e coordinarsi con i fornitori di servizi per mantenere un approccio coerente all’aderenza normativa.
Anche se i divieti specifici non si applicano ai casi d’uso di IA della propria organizzazione, i requisiti di alfabetizzazione IA coprono una gamma molto più ampia di attività legate all’IA. Se non già in atto, questa è un’opportunità per collaborare con i team interni per sviluppare un governo dell’IA completo, materiali educativi, programmi di formazione e salvaguardie contro l’abuso.