Competenze di intelligenza artificiale: costruire un programma efficace

AI Literacy: Punti chiave per costruire un programma efficace

Il Regolamento sull’AI dell’UE ha introdotto l’obbligo di alfabetizzazione AI, che è entrato in vigore il 2 febbraio 2025. Questo obbligo si applica a chiunque operi con l’IA in connessione con l’UE, sia per i fornitori che per i fruitori di qualsiasi sistema di intelligenza artificiale.

Obblighi per fornitori e fruitori di sistemi AI

I fornitori e i fruitori di sistemi AI devono “adottare misure per garantire, per quanto possibile, un livello sufficiente di alfabetizzazione AI per il proprio personale e per le altre persone che operano e utilizzano i sistemi AI per loro conto” (Articolo 4).

Il Considerando 20 riassume il requisito di equipaggiare le persone interessate con “nozioni necessarie” per prendere decisioni informate riguardo ai sistemi IA. È fondamentale che il personale sia consapevole sia delle opportunità che dei rischi associati all’uso dell’IA e dei potenziali danni che essa può causare.

Chi deve essere alfabetizzato in AI?

Il Regolamento conferma che l’obbligo di alfabetizzazione si estende a chiunque si trovi sotto la responsabilità operativa dei fornitori o fruitori, inclusi appaltatori, fornitori di servizi e clienti.

Qual è un livello “sufficiente” di alfabetizzazione AI?

La Commissione non impone requisiti specifici poiché questo è contestualizzato. Le organizzazioni devono personalizzare il loro approccio; ad esempio, quelle che utilizzano sistemi AI ad alto rischio potrebbero necessitare di “misure aggiuntive” per garantire che i dipendenti comprendano i rischi.

Inoltre, anche i dipendenti che utilizzano solo generative AI necessitano di formazione sui rischi pertinenti, come le allucinazioni dell’IA.

Esiste un’esenzione per il “human-in-the-loop”?

No, in effetti l’alfabetizzazione AI è ancora più importante per le persone che operano come supervisori. Per fornire una supervisione genuina, è essenziale che comprendano i sistemi IA che stanno monitorando.

Conseguenze della non conformità

Le autorità di sorveglianza del mercato inizieranno a far rispettare le norme a partire dal 2 agosto 2026. La Commissione ha sollevato questioni su possibili sanzioni per la non conformità a partire dal 2 febbraio 2025, ma non ha fornito risposte definitive.

È stato segnalato che sebbene l’Articolo 99 del Regolamento stabilisca sanzioni massime in altri ambiti, non impedisce agli stati membri di includere specifiche sanzioni per la non conformità nell’ambito della legislazione nazionale.

Considerazioni finali

La Commissione non offre molte indicazioni su come dovrebbe essere strutturato un programma di alfabetizzazione AI; tuttavia, sottolinea che ciò che è “sufficiente” dipenderà da ciascuna organizzazione. Per modellare un programma di alfabetizzazione AI, è necessario considerare:

  • Chi sono i diversi stakeholder coinvolti nell’uso dell’IA? Questo deve coprire tutti: governatori dell’IA, sviluppatori, utenti, fornitori di servizi, clienti e persone colpite.
  • Cosa sanno già e cosa devono sapere i diversi gruppi? Ad esempio, i membri del comitato di governance dell’IA potrebbero necessitare di una comprensione più profonda di come funziona l’IA.
  • Quale medium sarebbe più appropriato? Ad esempio, un formato di workshop potrebbe funzionare bene per i membri del comitato di governance dell’IA, mentre un e-learning potrebbe essere sufficiente per i dipendenti che utilizzano occasionalmente l’IA generativa.
  • Quando sarà erogata la formazione? L’obbligo è già in vigore.
  • Come tracceremo la partecipazione e garantiremo che il completamento sia sufficientemente alto?

L’alfabetizzazione AI è fondamentale per tutte le organizzazioni che utilizzano l’IA, indipendentemente dall’applicazione del Regolamento AI, poiché è essenziale per costruire un forte programma di governance dell’IA in grado di gestire i rischi legali e organizzativi associati all’uso dell’IA.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...