Regole sui Sistemi di Decisione Automatizzati in California: Cosa Devono Sapere i Datori di Lavoro

Regolamenti Potenziali sull’Occupazione AI in California: Cosa Devono Sapere i Datori di Lavoro

In un’azione senza precedenti, la California ha finalizzato regolamenti innovativi che affrontano direttamente l’uso dell’intelligenza artificiale (AI) e dei sistemi decisionali automatizzati (ADS) nell’occupazione. Queste norme, approvate dal Consiglio dei Diritti Civili della California nel marzo 2025, inviano un chiaro messaggio: mentre gli strumenti di AI possono essere preziosi nella reclutamento, assunzione e gestione della forza lavoro, non devono essere utilizzati in modi che discriminano i candidati o i dipendenti.

Questi regolamenti dovrebbero entrare in vigore entro la fine dell’anno, una volta approvati dall’Ufficio della Legge Amministrativa. Ecco cosa i datori di lavoro californiani devono sapere.

1. Scopo e Ambito dei Nuovi Regolamenti

I regolamenti mirano a garantire che l’uso crescente della tecnologia nelle decisioni occupazionali sia conforme al Fair Employment and Housing Act (FEHA). In sostanza, le norme estendono le tradizionali protezioni anti-discriminazione all’era digitale attraverso:

  • Definizione di quando e come i sistemi automatizzati sono coperti dalla legge occupazionale californiana
  • Divieto di impatti discriminatori derivanti dagli ADS
  • Imposizione di obblighi di registrazione e comunicazione per i datori di lavoro che utilizzano queste tecnologie

2. Cos’è un Sistema Decisionale Automatizzato (ADS)?

I regolamenti definiscono un ADS come: “Un processo computazionale che prende una decisione o facilita la decisione umana riguardo a un beneficio occupazionale”, inclusi strumenti che si basano su AI, apprendimento automatico, algoritmi o statistiche.

Esempi di ADS includono:

  • Screener di curriculum
  • Sistemi di punteggio per interviste automatizzate che effettuano valutazioni predittive sui candidati o dipendenti
  • Software video che analizza la voce o le espressioni facciali
  • Sistemi che prioritizzano o classificano i candidati
  • Sistemi che indirizzano annunci di lavoro a determinati gruppi

Esclusi: Strumenti di base come elaboratori di testi, fogli di calcolo e software di sicurezza, a condizione che non prendano o influenzino decisioni occupazionali.

3. Principali Divieti e Requisiti

Nessuna Discriminazione: I regolamenti stabiliscono che “è illegale per un datore di lavoro o altro ente coperto utilizzare un sistema di decisione automatizzata o criteri di selezione che discriminano un candidato o un dipendente su una base protetta dalla legge, soggetto a qualsiasi difesa disponibile.”

Aree Ad Alto RischioControlli del Background Criminale: I datori di lavoro non possono utilizzare ADS per esaminare la storia criminale prima di un’offerta condizionale. Anche dopo un’offerta, devono eseguire valutazioni individuali e non possono fare affidamento esclusivamente sui risultati automatizzati.

Obbligo di Fornire Accoglienze: Se uno strumento di AI può svantaggiare un candidato con una disabilità o caratteristica protetta, il datore di lavoro deve offrire un’accoglienza ragionevole (ad esempio, formati di valutazione alternativi).

I Fornitori Terzi Possono Creare Responsabilità: Se un fornitore o un reclutatore utilizza uno strumento ADS per conto del datore di lavoro, quest’ultimo può comunque essere legalmente responsabile. I contratti dovrebbero chiarire le responsabilità di conformità e includere disposizioni di indennizzo.

4. Requisiti di Documentazione e Conformità

I datori di lavoro che utilizzano ADS devono:

  • Conservare dati pertinenti, inclusi i risultati delle decisioni automatizzate e i dati demografici, per almeno quattro anni
  • Tenere i registri separati dai file del personale
  • Condurre e documentare test anti-bias sugli strumenti di AI
  • Rispondere adeguatamente ai risultati dei test

5. Prossimi Passi per i Datori di Lavoro

Se i regolamenti vengono adottati in California, i datori di lavoro dovrebbero:

  • Rivedere Tutti gli ADS e gli Strumenti di AI in Uso – Condurre un audit delle tecnologie utilizzate in reclutamento, assunzione, promozioni e disciplina.
  • Coinvolgere Consulenti Legali o Esperti di Conformità – Valutare se gli strumenti hanno probabilmente un impatto discriminatorio o violano il FEHA.
  • Richiedere Trasparenza dai Fornitori – Chiedere informazioni sui test di bias, sui dati di addestramento e sulla logica del sistema.
  • Implementare Politiche di Comunicazione e Accoglienza – Informare chiaramente i candidati quando verranno utilizzati gli ADS e come possono richiedere un’accoglienza.
  • Utilizzare il Controllo Umano – Non fare affidamento esclusivamente sull’AI per le decisioni occupazionali. Un essere umano dovrebbe rivedere e approvare le decisioni finali.

Se questi regolamenti vengono adottati, la California potrebbe unirsi a giurisdizioni come New York City, Illinois e Colorado nel regolamentare l’AI nel posto di lavoro. Mentre il governo federale sta ancora sviluppando il proprio approccio, stati come la California potrebbero iniziare a regolare come l’AI può essere utilizzata nelle decisioni occupazionali.

I datori di lavoro operanti in California devono trattare l’AI e l’automazione con la stessa attenzione e diligenza di qualsiasi altra pratica occupazionale soggetta alle leggi anti-discriminazione.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...