La Commissione Europea Pubblica un Q&A sulla Literacy in AI
Il 7 maggio 2025, la Commissione Europea ha pubblicato un Q&A che affronta le obbligazioni relative alla literacy in AI ai sensi dell’EU AI Act. Questo documento fornisce ulteriori dettagli sull’Articolo 4 dell’EU AI Act, chiarendo le misure che le entità soggette devono adottare per garantire una corretta literacy in AI.
Principali Obiettivi
La Commissione Europea delinea i passi e gli obiettivi che un’entità deve raggiungere nello sviluppo e nell’implementazione di un programma di compliance per la literacy in AI, tra cui:
- Garantire una comprensione generale dell’AI all’interno dell’entità, coprendo i seguenti argomenti: Cos’è l’AI?, Come funziona?, Quale AI è utilizzata nell’entità?, Quali sono le sue opportunità e i suoi rischi?
- Considerare il ruolo dell’entità (ad esempio, fornitore o utilizzatore dei sistemi AI).
- Valutare il rischio dei sistemi AI forniti o utilizzati, inclusi i seguenti interrogativi: Di cosa devono essere informati i dipendenti quando interagiscono con tali sistemi AI? Quali sono i rischi di cui devono essere a conoscenza e devono sapere come mitigarli?
- Costruire concretamente il programma di compliance per la literacy in AI, tenendo conto dell’analisi dei punti sopra e: (1) delle differenze nella conoscenza tecnica, esperienza, istruzione e formazione del personale e di altre persone; e (2) del contesto in cui i sistemi AI devono essere utilizzati e delle persone su cui i sistemi AI devono operare.
Formazione e Addestramento
Per quanto riguarda la formazione, la Commissione Europea osserva che una formazione frequente e specifica sarà parte integrante dei programmi di compliance per la literacy in AI; semplicemente rimandare i membri del personale a istruzioni che accompagnano i sistemi AI non sarà generalmente considerato sufficiente. Il contenuto della formazione non sarà fisso, potrà variare in base all’esperienza del personale e dovrà essere valutato caso per caso. Le formazioni dovranno inoltre coprire i rischi che possono emergere dall’uso di sistemi AI generativi comuni, come ad esempio l’hallucination. Se il personale di terze parti interagisce con i sistemi AI, la formazione può essere fornita direttamente dall’entità in questione e/o i requisiti di formazione possono essere, ad esempio, stabiliti nei contratti con tali terze parti.
Documentazione e Conformità
La Commissione Europea conferma che le entità soggette devono registrare e documentare le misure implementate per conformarsi all’Articolo 4 dell’AI Act. Tuttavia, non è necessaria una certificazione esterna.
Tempistiche
L’Articolo 4 dell’AI Act è entrato in applicazione il 2 febbraio 2025. Pertanto, le obbligazioni relative alla literacy in AI si applicano già alle entità in questione.
Tuttavia, nel Q&A, la Commissione Europea chiarisce che le regole di supervisione e enforcement si applicheranno solo a partire dal 3 agosto 2026. Le penalità per non conformità alle obbligazioni di literacy in AI si baseranno sulle leggi nazionali che devono essere adottate dagli Stati membri dell’UE entro il 2 agosto 2025. La tutela privata è già possibile quando un individuo subisce un danno e ritiene che ciò sia dovuto alla non conformità da parte di un’entità soggetta.