AI a rischio: obblighi e opportunità per i datori di lavoro

Sistemi di IA a rischio: cosa sono e cosa devono fare i datori di lavoro interessati?

Il Regolamento sull’IA dell’UE è la prima legislazione al mondo che regola i sistemi di intelligenza artificiale. Questo atto crea obblighi basati sul livello di rischio associato a specifici utilizzi dei sistemi di IA. Le disposizioni relative agli usi di IA considerati i più rischiosi sono entrate in vigore il 2 febbraio 2025, mentre l’intero atto sarà operativo entro il 1° agosto 2026. L’intento del Parlamento europeo è quello di aumentare la sicurezza, la trasparenza e la sostenibilità, prevenendo pratiche discriminatorie nell’IA.

Negli ultimi anni, le capacità dell’IA sono accelerate notevolmente, creando sfide legali ed etiche. Dati di addestramento incompleti e parziali hanno portato a sistemi di IA che valutano discriminatoriamente i CV, etichettano erroneamente le immagini e identificano in modo errato i sospetti criminali. L’IA solleva anche preoccupazioni relative alla privacy e alla trasparenza, come nel caso in cui le informazioni personali degli utenti vengano estratte da siti pubblici senza la loro conoscenza.

Si applica alla tua azienda?

Il Regolamento si applica ai fornitori di sistemi di IA sul mercato dell’UE, indipendentemente da dove siano stabiliti, e agli utenti di sistemi di IA situati al di fuori dell’UE, se l’output del sistema di IA sarà utilizzato nell’UE. Pertanto, non sono solo le aziende situate nell’UE a dover essere consapevoli delle implicazioni del Regolamento. Ad esempio, se utilizzi uno strumento di reclutamento basato su IA nel Regno Unito per la selezione di personale in tutta l’UE, questo rientrerà nell’ambito di applicazione del Regolamento.

Categorie di rischio

Il Regolamento classifica gli usi dell’IA in diverse categorie di rischio, che aumentano in gravità da “rischio minimo” e “rischio limitato” a “rischio elevato” e “rischio inaccettabile”. I sistemi di IA considerati di “rischio minimo” (che includono la maggior parte dei sistemi di IA attualmente disponibili sul mercato dell’UE) rimarranno non regolamentati. I sistemi di “rischio limitato” saranno soggetti a obblighi leggeri per garantire che gli utenti sappiano e comprendano di stare interagendo con un’IA. Il Regolamento impone regolamenti molto più severi per i sistemi di “rischio elevato” e “rischio inaccettabile”. La sanzione massima per la non conformità è pari al maggiore tra 35 milioni di euro o fino al 7% del fatturato annuale totale dell’azienda per l’anno finanziario precedente.

Sistemi di IA di “rischio elevato”

I sistemi di IA di “rischio elevato” includono quelli utilizzati per categorizzare le persone in base ai loro dati biometrici (ad esempio, IA utilizzata nella videosorveglianza), per l’istruzione e la formazione (ad esempio, IA utilizzata per rilevare comportamenti anomali degli studenti durante gli esami), nell’occupazione (ad esempio, IA utilizzata nelle decisioni HR o durante i processi di assunzione) e per amministrare la giustizia (ad esempio, IA utilizzata nella risoluzione alternativa delle controversie).

Un sistema sarà classificato come ad alto rischio solo se comporta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali. Un sistema che esegue solo un compito procedurale ristretto o è destinato a migliorare il risultato di un’attività umana precedentemente completata, ad esempio, sarà considerato non comportante un rischio significativo di danno e cadrà al di fuori della classificazione di alto rischio.

Sistemi di IA di “rischio inaccettabile”

Il Regolamento ha vietato i sistemi di IA di rischio inaccettabile dal 2 febbraio 2025. Ci sono otto sistemi di IA che sono stati banditi sotto il Regolamento per costituire una minaccia significativa nei confronti degli utenti e della società in generale. Questi includono sistemi che comportano la valutazione sociale delle persone (ad esempio, classificare utenti o gruppi di utenti in base a tratti della personalità e comportando un trattamento dannoso o sfavorevole), il riconoscimento delle emozioni nei luoghi di lavoro o nelle istituzioni educative e l’uso di informazioni biometriche per sistemi di categorizzazione che inferiscono attributi sensibili (ad esempio, genere, religione, etnia).

Cosa devono fare i datori di lavoro?

Se la tua azienda, o parte di essa, rientra nell’ambito di applicazione del Regolamento, dovresti intraprendere azioni ora per garantire di adempiere ai tuoi obblighi:

  • Audit: Considera di condurre un audit dei sistemi di IA che utilizzi attualmente per verificare se rientrano nelle categorie di “rischio inaccettabile” o “rischio elevato”. Se viene identificato un AI in tali categorie, dovresti eliminarlo o modificarlo immediatamente per evitare le conseguenze della non conformità.
  • Politiche: Implementa politiche di governance dell’IA per delineare chiaramente come i dipendenti dovrebbero utilizzare responsabilmente l’IA in conformità con il Regolamento.
  • Formazione: Considera di fornire formazione sull’uso dell’IA per aiutare i dipendenti a comprendere le sfide, i rischi e le opportunità presentate dall’IA e il loro ruolo e responsabilità.
  • Conformità dei fornitori: Se utilizzi fornitori terzi per i tuoi sistemi di IA (ad esempio, per l’IA nel reclutamento), assicurati che il fornitore di IA rispetti il Regolamento e rivedi i tuoi contratti con i fornitori per garantire che la responsabilità per la non conformità ricada su di loro.

Adottando misure positive ora per garantire la conformità al Regolamento, i datori di lavoro possono mantenere una cultura lavorativa incentrata sulle persone ed evitare multe sostanziali, oltre a ripercussioni reputazionali.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...