AI a rischio: obblighi e opportunità per i datori di lavoro

Sistemi di IA a rischio: cosa sono e cosa devono fare i datori di lavoro interessati?

Il Regolamento sull’IA dell’UE è la prima legislazione al mondo che regola i sistemi di intelligenza artificiale. Questo atto crea obblighi basati sul livello di rischio associato a specifici utilizzi dei sistemi di IA. Le disposizioni relative agli usi di IA considerati i più rischiosi sono entrate in vigore il 2 febbraio 2025, mentre l’intero atto sarà operativo entro il 1° agosto 2026. L’intento del Parlamento europeo è quello di aumentare la sicurezza, la trasparenza e la sostenibilità, prevenendo pratiche discriminatorie nell’IA.

Negli ultimi anni, le capacità dell’IA sono accelerate notevolmente, creando sfide legali ed etiche. Dati di addestramento incompleti e parziali hanno portato a sistemi di IA che valutano discriminatoriamente i CV, etichettano erroneamente le immagini e identificano in modo errato i sospetti criminali. L’IA solleva anche preoccupazioni relative alla privacy e alla trasparenza, come nel caso in cui le informazioni personali degli utenti vengano estratte da siti pubblici senza la loro conoscenza.

Si applica alla tua azienda?

Il Regolamento si applica ai fornitori di sistemi di IA sul mercato dell’UE, indipendentemente da dove siano stabiliti, e agli utenti di sistemi di IA situati al di fuori dell’UE, se l’output del sistema di IA sarà utilizzato nell’UE. Pertanto, non sono solo le aziende situate nell’UE a dover essere consapevoli delle implicazioni del Regolamento. Ad esempio, se utilizzi uno strumento di reclutamento basato su IA nel Regno Unito per la selezione di personale in tutta l’UE, questo rientrerà nell’ambito di applicazione del Regolamento.

Categorie di rischio

Il Regolamento classifica gli usi dell’IA in diverse categorie di rischio, che aumentano in gravità da “rischio minimo” e “rischio limitato” a “rischio elevato” e “rischio inaccettabile”. I sistemi di IA considerati di “rischio minimo” (che includono la maggior parte dei sistemi di IA attualmente disponibili sul mercato dell’UE) rimarranno non regolamentati. I sistemi di “rischio limitato” saranno soggetti a obblighi leggeri per garantire che gli utenti sappiano e comprendano di stare interagendo con un’IA. Il Regolamento impone regolamenti molto più severi per i sistemi di “rischio elevato” e “rischio inaccettabile”. La sanzione massima per la non conformità è pari al maggiore tra 35 milioni di euro o fino al 7% del fatturato annuale totale dell’azienda per l’anno finanziario precedente.

Sistemi di IA di “rischio elevato”

I sistemi di IA di “rischio elevato” includono quelli utilizzati per categorizzare le persone in base ai loro dati biometrici (ad esempio, IA utilizzata nella videosorveglianza), per l’istruzione e la formazione (ad esempio, IA utilizzata per rilevare comportamenti anomali degli studenti durante gli esami), nell’occupazione (ad esempio, IA utilizzata nelle decisioni HR o durante i processi di assunzione) e per amministrare la giustizia (ad esempio, IA utilizzata nella risoluzione alternativa delle controversie).

Un sistema sarà classificato come ad alto rischio solo se comporta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali. Un sistema che esegue solo un compito procedurale ristretto o è destinato a migliorare il risultato di un’attività umana precedentemente completata, ad esempio, sarà considerato non comportante un rischio significativo di danno e cadrà al di fuori della classificazione di alto rischio.

Sistemi di IA di “rischio inaccettabile”

Il Regolamento ha vietato i sistemi di IA di rischio inaccettabile dal 2 febbraio 2025. Ci sono otto sistemi di IA che sono stati banditi sotto il Regolamento per costituire una minaccia significativa nei confronti degli utenti e della società in generale. Questi includono sistemi che comportano la valutazione sociale delle persone (ad esempio, classificare utenti o gruppi di utenti in base a tratti della personalità e comportando un trattamento dannoso o sfavorevole), il riconoscimento delle emozioni nei luoghi di lavoro o nelle istituzioni educative e l’uso di informazioni biometriche per sistemi di categorizzazione che inferiscono attributi sensibili (ad esempio, genere, religione, etnia).

Cosa devono fare i datori di lavoro?

Se la tua azienda, o parte di essa, rientra nell’ambito di applicazione del Regolamento, dovresti intraprendere azioni ora per garantire di adempiere ai tuoi obblighi:

  • Audit: Considera di condurre un audit dei sistemi di IA che utilizzi attualmente per verificare se rientrano nelle categorie di “rischio inaccettabile” o “rischio elevato”. Se viene identificato un AI in tali categorie, dovresti eliminarlo o modificarlo immediatamente per evitare le conseguenze della non conformità.
  • Politiche: Implementa politiche di governance dell’IA per delineare chiaramente come i dipendenti dovrebbero utilizzare responsabilmente l’IA in conformità con il Regolamento.
  • Formazione: Considera di fornire formazione sull’uso dell’IA per aiutare i dipendenti a comprendere le sfide, i rischi e le opportunità presentate dall’IA e il loro ruolo e responsabilità.
  • Conformità dei fornitori: Se utilizzi fornitori terzi per i tuoi sistemi di IA (ad esempio, per l’IA nel reclutamento), assicurati che il fornitore di IA rispetti il Regolamento e rivedi i tuoi contratti con i fornitori per garantire che la responsabilità per la non conformità ricada su di loro.

Adottando misure positive ora per garantire la conformità al Regolamento, i datori di lavoro possono mantenere una cultura lavorativa incentrata sulle persone ed evitare multe sostanziali, oltre a ripercussioni reputazionali.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...