AI a rischio: obblighi e opportunità per i datori di lavoro

Sistemi di IA a rischio: cosa sono e cosa devono fare i datori di lavoro interessati?

Il Regolamento sull’IA dell’UE è la prima legislazione al mondo che regola i sistemi di intelligenza artificiale. Questo atto crea obblighi basati sul livello di rischio associato a specifici utilizzi dei sistemi di IA. Le disposizioni relative agli usi di IA considerati i più rischiosi sono entrate in vigore il 2 febbraio 2025, mentre l’intero atto sarà operativo entro il 1° agosto 2026. L’intento del Parlamento europeo è quello di aumentare la sicurezza, la trasparenza e la sostenibilità, prevenendo pratiche discriminatorie nell’IA.

Negli ultimi anni, le capacità dell’IA sono accelerate notevolmente, creando sfide legali ed etiche. Dati di addestramento incompleti e parziali hanno portato a sistemi di IA che valutano discriminatoriamente i CV, etichettano erroneamente le immagini e identificano in modo errato i sospetti criminali. L’IA solleva anche preoccupazioni relative alla privacy e alla trasparenza, come nel caso in cui le informazioni personali degli utenti vengano estratte da siti pubblici senza la loro conoscenza.

Si applica alla tua azienda?

Il Regolamento si applica ai fornitori di sistemi di IA sul mercato dell’UE, indipendentemente da dove siano stabiliti, e agli utenti di sistemi di IA situati al di fuori dell’UE, se l’output del sistema di IA sarà utilizzato nell’UE. Pertanto, non sono solo le aziende situate nell’UE a dover essere consapevoli delle implicazioni del Regolamento. Ad esempio, se utilizzi uno strumento di reclutamento basato su IA nel Regno Unito per la selezione di personale in tutta l’UE, questo rientrerà nell’ambito di applicazione del Regolamento.

Categorie di rischio

Il Regolamento classifica gli usi dell’IA in diverse categorie di rischio, che aumentano in gravità da “rischio minimo” e “rischio limitato” a “rischio elevato” e “rischio inaccettabile”. I sistemi di IA considerati di “rischio minimo” (che includono la maggior parte dei sistemi di IA attualmente disponibili sul mercato dell’UE) rimarranno non regolamentati. I sistemi di “rischio limitato” saranno soggetti a obblighi leggeri per garantire che gli utenti sappiano e comprendano di stare interagendo con un’IA. Il Regolamento impone regolamenti molto più severi per i sistemi di “rischio elevato” e “rischio inaccettabile”. La sanzione massima per la non conformità è pari al maggiore tra 35 milioni di euro o fino al 7% del fatturato annuale totale dell’azienda per l’anno finanziario precedente.

Sistemi di IA di “rischio elevato”

I sistemi di IA di “rischio elevato” includono quelli utilizzati per categorizzare le persone in base ai loro dati biometrici (ad esempio, IA utilizzata nella videosorveglianza), per l’istruzione e la formazione (ad esempio, IA utilizzata per rilevare comportamenti anomali degli studenti durante gli esami), nell’occupazione (ad esempio, IA utilizzata nelle decisioni HR o durante i processi di assunzione) e per amministrare la giustizia (ad esempio, IA utilizzata nella risoluzione alternativa delle controversie).

Un sistema sarà classificato come ad alto rischio solo se comporta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali. Un sistema che esegue solo un compito procedurale ristretto o è destinato a migliorare il risultato di un’attività umana precedentemente completata, ad esempio, sarà considerato non comportante un rischio significativo di danno e cadrà al di fuori della classificazione di alto rischio.

Sistemi di IA di “rischio inaccettabile”

Il Regolamento ha vietato i sistemi di IA di rischio inaccettabile dal 2 febbraio 2025. Ci sono otto sistemi di IA che sono stati banditi sotto il Regolamento per costituire una minaccia significativa nei confronti degli utenti e della società in generale. Questi includono sistemi che comportano la valutazione sociale delle persone (ad esempio, classificare utenti o gruppi di utenti in base a tratti della personalità e comportando un trattamento dannoso o sfavorevole), il riconoscimento delle emozioni nei luoghi di lavoro o nelle istituzioni educative e l’uso di informazioni biometriche per sistemi di categorizzazione che inferiscono attributi sensibili (ad esempio, genere, religione, etnia).

Cosa devono fare i datori di lavoro?

Se la tua azienda, o parte di essa, rientra nell’ambito di applicazione del Regolamento, dovresti intraprendere azioni ora per garantire di adempiere ai tuoi obblighi:

  • Audit: Considera di condurre un audit dei sistemi di IA che utilizzi attualmente per verificare se rientrano nelle categorie di “rischio inaccettabile” o “rischio elevato”. Se viene identificato un AI in tali categorie, dovresti eliminarlo o modificarlo immediatamente per evitare le conseguenze della non conformità.
  • Politiche: Implementa politiche di governance dell’IA per delineare chiaramente come i dipendenti dovrebbero utilizzare responsabilmente l’IA in conformità con il Regolamento.
  • Formazione: Considera di fornire formazione sull’uso dell’IA per aiutare i dipendenti a comprendere le sfide, i rischi e le opportunità presentate dall’IA e il loro ruolo e responsabilità.
  • Conformità dei fornitori: Se utilizzi fornitori terzi per i tuoi sistemi di IA (ad esempio, per l’IA nel reclutamento), assicurati che il fornitore di IA rispetti il Regolamento e rivedi i tuoi contratti con i fornitori per garantire che la responsabilità per la non conformità ricada su di loro.

Adottando misure positive ora per garantire la conformità al Regolamento, i datori di lavoro possono mantenere una cultura lavorativa incentrata sulle persone ed evitare multe sostanziali, oltre a ripercussioni reputazionali.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...