Linee guida dell’UE sulle pratiche AI proibite

Linee guida della Commissione Europea sulle pratiche AI vietate ai sensi dell’Atto sull’Intelligenza Artificiale dell’UE

Il 5 febbraio 2025, la Commissione Europea ha pubblicato due serie di linee guida per chiarire aspetti chiave dell’Atto sull’Intelligenza Artificiale dell’UE (“AI Act”): Linee guida sulla definizione di un sistema AI e Linee guida sulle pratiche AI vietate. Queste linee guida sono destinate a fornire indicazioni sugli obblighi previsti dall’AI Act che sono entrati in vigore il 2 febbraio 2025, inclusa la sezione definizioni, gli obblighi relativi alla alfabetizzazione AI e i divieti su determinate pratiche AI.

Questo articolo riassume i punti chiave delle linee guida della Commissione sulle pratiche AI vietate.

Pratiche AI vietate secondo l’Articolo 5

Le linee guida superano le 100 pagine e forniscono indicazioni dettagliate su come interpretare e applicare ciascuna delle otto pratiche AI vietate elencate nell’Articolo 5 dell’AI Act. Di seguito sono riportati alcuni punti salienti:

  • Pubblicità personalizzate: L’Articolo 5(1)(a) vieta “la messa in commercio, l’immissione in servizio o l’uso di un sistema AI che impiega tecniche subliminali oltre la coscienza di una persona o tecniche manipolative o ingannevoli, con l’obiettivo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone…”. Le linee guida indicano che l’uso dell’AI per personalizzare gli annunci in base alle preferenze degli utenti “non è intrinsecamente manipolativo”, a condizione che non utilizzi tecniche subliminali o ingannevoli.
  • Persuasione lecita: L’Articolo 5(1)(b) vieta “la messa in commercio, l’immissione in servizio o l’uso di un sistema AI che sfrutta le vulnerabilità di una persona o di un gruppo…”. Le linee guida chiariscono che la distorsione deve andare oltre la “persuasione lecita”. Un sistema AI è probabilmente impegnato in “persuasione lecita” se opera in modo trasparente e rispetta i quadri legali e normativi.
  • Vulnerabilità e dipendenza: L’Articolo 5(1)(b) vieta lo sfruttamento delle vulnerabilità di una persona basate su “età, disabilità o una situazione socio-economica specifica”. Le linee guida forniscono esempi di sfruttamento, come i sistemi AI che “creano premi personalizzati e imprevedibili per incoraggiare l’uso eccessivo” o “prendono di mira persone anziane con offerte ingannevoli”.
  • Profilazione e punteggio sociale: L’Articolo 5(1)(c) vieta l’uso di sistemi AI per la valutazione o la classificazione delle persone basata su comportamenti sociali. Le linee guida chiariscono che determinati tipi di profilazione condotti tramite sistemi AI potrebbero rientrare nell’ambito dell’Articolo 5(1)(c).
  • Polizia predittiva: L’Articolo 5(1)(d) vieta l’uso di sistemi AI per fare valutazioni di rischio relative a persone in base alla profilazione. Le linee guida spiegano che questa proibizione si applica anche agli attori privati richiesti di agire per conto delle forze dell’ordine.
  • Scraping di immagini facciali: L’Articolo 5(1)(e) vieta l’uso di sistemi AI che creano database di riconoscimento facciale attraverso lo scraping non mirato di immagini facciali. Tuttavia, i database utilizzati per la formazione di modelli AI non rientrano in questo divieto.
  • Riconoscimento delle emozioni in ambito lavorativo: L’Articolo 5(1)(f) vieta l’uso di sistemi AI per inferire le emozioni delle persone nel contesto lavorativo, con alcune eccezioni.

Interpretazione e ambito dell’AI Act

Le linee guida chiariscono che le pratiche vietate si applicano sia ai sistemi AI generali sia a quelli con uno scopo specifico. I fornitori di sistemi AI generali sono tenuti a implementare misure di protezione per prevenire abusi e fornire istruzioni per la supervisione umana.

Il team continua a monitorare gli sviluppi normativi sull’AI e offre consulenze alle principali aziende tecnologiche sui loro problemi regolatori e di conformità più complessi in Europa e in altri mercati principali.

More Insights

Moratoria e Intelligenza Artificiale: Un Doppio Gioco Politico

Un moratorio sulla regolamentazione statale dell'intelligenza artificiale (AI) sta suscitando sia critiche che apprezzamenti all'interno del Partito Repubblicano. Alcuni membri del Congresso, come la...

Sicurezza e Governance AI: La Nuova Frontiera di IBM

IBM ha lanciato nuove capacità software che integrano la sicurezza e la governance dell'IA, segnando quella che sostiene essere la prima soluzione unificata del settore per gestire i rischi dell'IA...

Intelligenza Artificiale e Etica: Costruire un Futuro Responsabile

Con l'aumento dell'uso dell'intelligenza artificiale (IA) nei processi decisionali critici, è fondamentale stabilire solide strutture di governance etica. Le piattaforme di governance IA agentiche...

Innovazione Sovrana: L’Intelligenza Artificiale in Africa

L'Africa deve diventare l'architetto del proprio futuro nell'Intelligenza Artificiale, sviluppando quadri di governance inclusivi e riappropriandosi del controllo sui propri dati. È fondamentale...

Dominare l’Intelligenza Artificiale e la Sovranità dei Dati

L'economia globale sta entrando in una fase di trasformazione senza precedenti, guidata dall'ascesa rapida dei dati e dell'intelligenza artificiale. Secondo un rapporto di Forrester, entro il 2028...

Etica dell’IA: La Visione di Papa Leone XIV

Il Papa Leo XIV è emerso come un punto focale per le discussioni globali sulla regolamentazione dell'IA, presentando una visione etica robusta adatta per l'era dell'intelligenza artificiale. Ha...

L’Intelligenza Artificiale sotto il Controllo: Il Ruolo Cruciale degli Stati

I legislatori statunitensi stanno considerando una moratoria che vieterebbe la regolamentazione dell'IA a livello statale per dieci anni, nel tentativo di accelerare lo sviluppo dell'IA negli Stati...

Governanza Responsabile dell’IA: La Soluzione di Wild Tech

Wild Tech ha lanciato una nuova piattaforma per aiutare le organizzazioni a ridurre la dispersione dell'IA e migliorare la governance dei dati. La soluzione, allineata a Microsoft, mira a promuovere...

Sicurezza e Governance nell’AI: La Rivoluzione degli Sistemi Agentici

IBM annuncia il primo software del settore per unire i team di sicurezza e governance dell'IA, fornendo una visione unificata del rischio aziendale. Le nuove capacità migliorano e integrano...