Linee guida della Commissione Europea sulle pratiche AI vietate ai sensi dell’Atto sull’Intelligenza Artificiale dell’UE
Il 5 febbraio 2025, la Commissione Europea ha pubblicato due serie di linee guida per chiarire aspetti chiave dell’Atto sull’Intelligenza Artificiale dell’UE (“AI Act”): Linee guida sulla definizione di un sistema AI e Linee guida sulle pratiche AI vietate. Queste linee guida sono destinate a fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025, inclusa la sezione definizioni, gli obblighi relativi alla alfabetizzazione AI e i divieti su determinate pratiche AI.
Questo articolo riassume i punti chiave delle linee guida della Commissione sulle pratiche AI vietate.
Pratiche AI vietate secondo l’Articolo 5
Le linee guida superano le 100 pagine e forniscono indicazioni dettagliate su come interpretare e applicare ciascuna delle otto pratiche AI vietate elencate nell’Articolo 5 dell’AI Act. Di seguito sono riportati alcuni punti salienti:
- Pubblicità personalizzate: L’Articolo 5(1)(a) vieta “la messa in commercio, l’immissione in servizio o l’uso di un sistema AI che impiega tecniche subliminali oltre la coscienza di una persona o tecniche manipolative o ingannevoli, con l’obiettivo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone…”. Le linee guida indicano che l’uso dell’AI per personalizzare gli annunci in base alle preferenze degli utenti “non è intrinsecamente manipolativo”, a condizione che non utilizzi tecniche subliminali o ingannevoli.
- Persuasione lecita: L’Articolo 5(1)(b) vieta “la messa in commercio, l’immissione in servizio o l’uso di un sistema AI che sfrutta le vulnerabilità di una persona o di un gruppo…”. Le linee guida chiariscono che la distorsione deve andare oltre la “persuasione lecita”. Un sistema AI è probabilmente impegnato in “persuasione lecita” se opera in modo trasparente e rispetta i quadri legali e normativi.
- Vulnerabilità e dipendenza: L’Articolo 5(1)(b) vieta lo sfruttamento delle vulnerabilità di una persona basate su “età, disabilità o una situazione socio-economica specifica”. Le linee guida forniscono esempi di sfruttamento, come i sistemi AI che “creano premi personalizzati e imprevedibili per incoraggiare l’uso eccessivo” o “prendono di mira persone anziane con offerte ingannevoli”.
- Profilazione e punteggio sociale: L’Articolo 5(1)(c) vieta l’uso di sistemi AI per la valutazione o la classificazione delle persone basata su comportamenti sociali. Le linee guida chiariscono che determinati tipi di profilazione condotti tramite sistemi AI potrebbero rientrare nell’ambito dell’Articolo 5(1)(c).
- Polizia predittiva: L’Articolo 5(1)(d) vieta l’uso di sistemi AI per fare valutazioni di rischio relative a persone in base alla profilazione. Le linee guida spiegano che questa proibizione si applica anche agli attori privati richiesti di agire per conto delle forze dell’ordine.
- Scraping di immagini facciali: L’Articolo 5(1)(e) vieta l’uso di sistemi AI che creano database di riconoscimento facciale attraverso lo scraping non mirato di immagini facciali. Tuttavia, i database utilizzati per la formazione di modelli AI non rientrano in questo divieto.
- Riconoscimento delle emozioni in ambito lavorativo: L’Articolo 5(1)(f) vieta l’uso di sistemi AI per inferire le emozioni delle persone nel contesto lavorativo, con alcune eccezioni.
Interpretazione e ambito dell’AI Act
Le linee guida chiariscono che le pratiche vietate si applicano sia ai sistemi AI generali sia a quelli con uno scopo specifico. I fornitori di sistemi AI generali sono tenuti a implementare misure di protezione per prevenire abusi e fornire istruzioni per la supervisione umana.
Il team continua a monitorare gli sviluppi normativi sull’AI e offre consulenze alle principali aziende tecnologiche sui loro problemi regolatori e di conformità più complessi in Europa e in altri mercati principali.