Obblighi del Nuovo Regolamento dell’UE sull’Intelligenza Artificiale: Formazione Obbligatoria e Pratiche Proibite
Dal 2 febbraio 2025, i fornitori e i distributori di sistemi di intelligenza artificiale (IA) dovranno garantire la literacy in materia di IA tra i propri dipendenti, nonché eliminare le pratiche di IA proibite. Il Regolamento dell’UE sull’IA è entrato in vigore il 1° agosto 2024, e i primi obblighi diventeranno applicabili a partire dal 2 febbraio 2025.
Literacy in IA
L’Articolo 4 del Regolamento sull’IA impone un requisito di literacy in materia di IA: “I fornitori e i distributori di sistemi di IA devono adottare misure per garantire, per quanto possibile, un livello sufficiente di literacy in IA per il proprio personale e altre persone che operano e utilizzano i sistemi di IA per loro conto”.
Le aziende hanno quindi una notevole flessibilità nel progettare il contenuto e il formato della loro formazione in IA per il personale, per soddisfare questo obbligo entro il 2 febbraio. È certamente meglio fornire un training di base piuttosto che non fare nulla, poiché affrontare le accuse di non conformità sarà più complicato se non si implementa alcuna forma di formazione o risorse di apprendimento.
Conseguenze della Non Conformità
Non sono previste multe dirette o altre sanzioni per la violazione dei requisiti di literacy in IA. Tuttavia, dal 2 agosto 2026, i fornitori e i distributori di sistemi di IA potrebbero affrontare responsabilità civili se l’uso di sistemi di IA da parte di personale non adeguatamente formato causa danni a consumatori o terze parti.
Cosa Possono Fare le Aziende Ora?
Un primo passo utile è analizzare quali formazioni o risorse per raggiungere la literacy in IA sono state fornite in passato e documentare queste misure per dimostrare la conformità. Se l’analisi non è fattibile o indica lacune nella formazione in IA, le aziende possono optare per implementare rapidamente misure di literacy in IA per colmare le lacune esistenti.
Ad esempio, un video intitolato “AI Fundamentals” spiega i componenti e le funzioni principali dell’IA e può essere utilizzato come parte della formazione in literacy in IA.
Soluzioni Pratiche per Mitigare i Rischi
- Valutare le esigenze di formazione in IA: esaminare i programmi di formazione attuali per identificare le lacune.
- Documentare le misure esistenti: mantenere registri di tutte le iniziative di formazione per dimostrare la conformità.
- Scegliere un approccio stratificato: non tutte le aree aziendali o i dipendenti necessitano dello stesso livello di literacy in IA.
- Consultare i propri consulenti legali: possono aiutarti a implementare workshop o corsi online di literacy in IA.
Pratiche Proibite nell’IA
Cosa Proibisce il Regolamento sull’IA?
L’Articolo 5 del Regolamento sull’IA elenca una serie di pratiche e casi d’uso di IA proibiti. Queste pratiche includono:
- Sistemi di IA manipolativi: sistemi che utilizzano tecniche subliminali per alterare significativamente il comportamento umano.
- Sistemi di IA sfruttatori: sistemi che sfruttano le vulnerabilità di gruppi specifici per alterare il comportamento in modo dannoso.
- Analisi delle emozioni in ambito lavorativo: sistemi che analizzano le emozioni o categorizzano biometricamente i dipendenti, portando a violazioni della privacy.
- Scoring sociale per fini commerciali ingiusti: sistemi utilizzati per classificare gli individui basandosi sul loro comportamento sociale.
Conseguenze della Non Conformità
Le sanzioni per l’engagement in pratiche di IA proibite possono includere multe fino a 35 milioni di euro o il 7% del fatturato globale dell’anno precedente per ogni violazione. Le autorità per la protezione dei dati dell’UE potrebbero anche sostenere che il trattamento dei dati personali in violazione delle pratiche proibite costituisca una violazione delle normative GDPR.
Cosa Possono Fare le Aziende Ora?
Le aziende devono identificare, valutare e documentare i sistemi di IA utilizzati nei loro processi aziendali, analizzando quelli che potrebbero rientrare nelle categorie di pratiche proibite. Se l’ambito dell’Articolo 5 sembra poco chiaro, le aziende dovrebbero documentare il proprio ragionamento per dimostrare che l’uso di IA non rientra nella proibizione.
Soluzioni Pratiche per Mitigare i Rischi
- Identificare e valutare i sistemi di IA: esaminare i sistemi di IA per garantire che non rientrino nelle categorie proibite.
- Documentare gli sforzi di conformità: documentare il ragionamento per cui alcuni usi di IA non violano le proibizioni.
- Altri obiettivi possibili: analizzare i sistemi di IA per attività ad alto rischio e garantire il rispetto delle obbligazioni di trasparenza.