Regolamenti Potenziali sull’Occupazione AI in California: Cosa Devono Sapere i Datori di Lavoro
In un’azione senza precedenti, la California ha finalizzato regolamenti innovativi che affrontano direttamente l’uso dell’intelligenza artificiale (AI) e dei sistemi decisionali automatizzati (ADS) nell’occupazione. Queste norme, approvate dal Consiglio dei Diritti Civili della California nel marzo 2025, inviano un chiaro messaggio: mentre gli strumenti di AI possono essere preziosi nella reclutamento, assunzione e gestione della forza lavoro, non devono essere utilizzati in modi che discriminano i candidati o i dipendenti.
Questi regolamenti dovrebbero entrare in vigore entro la fine dell’anno, una volta approvati dall’Ufficio della Legge Amministrativa. Ecco cosa i datori di lavoro californiani devono sapere.
1. Scopo e Ambito dei Nuovi Regolamenti
I regolamenti mirano a garantire che l’uso crescente della tecnologia nelle decisioni occupazionali sia conforme al Fair Employment and Housing Act (FEHA). In sostanza, le norme estendono le tradizionali protezioni anti-discriminazione all’era digitale attraverso:
- Definizione di quando e come i sistemi automatizzati sono coperti dalla legge occupazionale californiana
- Divieto di impatti discriminatori derivanti dagli ADS
- Imposizione di obblighi di registrazione e comunicazione per i datori di lavoro che utilizzano queste tecnologie
2. Cos’è un Sistema Decisionale Automatizzato (ADS)?
I regolamenti definiscono un ADS come: “Un processo computazionale che prende una decisione o facilita la decisione umana riguardo a un beneficio occupazionale”, inclusi strumenti che si basano su AI, apprendimento automatico, algoritmi o statistiche.
Esempi di ADS includono:
- Screener di curriculum
- Sistemi di punteggio per interviste automatizzate che effettuano valutazioni predittive sui candidati o dipendenti
- Software video che analizza la voce o le espressioni facciali
- Sistemi che prioritizzano o classificano i candidati
- Sistemi che indirizzano annunci di lavoro a determinati gruppi
Esclusi: Strumenti di base come elaboratori di testi, fogli di calcolo e software di sicurezza, a condizione che non prendano o influenzino decisioni occupazionali.
3. Principali Divieti e Requisiti
Nessuna Discriminazione: I regolamenti stabiliscono che “è illegale per un datore di lavoro o altro ente coperto utilizzare un sistema di decisione automatizzata o criteri di selezione che discriminano un candidato o un dipendente su una base protetta dalla legge, soggetto a qualsiasi difesa disponibile.”
Aree Ad Alto Rischio – Controlli del Background Criminale: I datori di lavoro non possono utilizzare ADS per esaminare la storia criminale prima di un’offerta condizionale. Anche dopo un’offerta, devono eseguire valutazioni individuali e non possono fare affidamento esclusivamente sui risultati automatizzati.
Obbligo di Fornire Accoglienze: Se uno strumento di AI può svantaggiare un candidato con una disabilità o caratteristica protetta, il datore di lavoro deve offrire un’accoglienza ragionevole (ad esempio, formati di valutazione alternativi).
I Fornitori Terzi Possono Creare Responsabilità: Se un fornitore o un reclutatore utilizza uno strumento ADS per conto del datore di lavoro, quest’ultimo può comunque essere legalmente responsabile. I contratti dovrebbero chiarire le responsabilità di conformità e includere disposizioni di indennizzo.
4. Requisiti di Documentazione e Conformità
I datori di lavoro che utilizzano ADS devono:
- Conservare dati pertinenti, inclusi i risultati delle decisioni automatizzate e i dati demografici, per almeno quattro anni
- Tenere i registri separati dai file del personale
- Condurre e documentare test anti-bias sugli strumenti di AI
- Rispondere adeguatamente ai risultati dei test
5. Prossimi Passi per i Datori di Lavoro
Se i regolamenti vengono adottati in California, i datori di lavoro dovrebbero:
- Rivedere Tutti gli ADS e gli Strumenti di AI in Uso – Condurre un audit delle tecnologie utilizzate in reclutamento, assunzione, promozioni e disciplina.
- Coinvolgere Consulenti Legali o Esperti di Conformità – Valutare se gli strumenti hanno probabilmente un impatto discriminatorio o violano il FEHA.
- Richiedere Trasparenza dai Fornitori – Chiedere informazioni sui test di bias, sui dati di addestramento e sulla logica del sistema.
- Implementare Politiche di Comunicazione e Accoglienza – Informare chiaramente i candidati quando verranno utilizzati gli ADS e come possono richiedere un’accoglienza.
- Utilizzare il Controllo Umano – Non fare affidamento esclusivamente sull’AI per le decisioni occupazionali. Un essere umano dovrebbe rivedere e approvare le decisioni finali.
Se questi regolamenti vengono adottati, la California potrebbe unirsi a giurisdizioni come New York City, Illinois e Colorado nel regolamentare l’AI nel posto di lavoro. Mentre il governo federale sta ancora sviluppando il proprio approccio, stati come la California potrebbero iniziare a regolare come l’AI può essere utilizzata nelle decisioni occupazionali.
I datori di lavoro operanti in California devono trattare l’AI e l’automazione con la stessa attenzione e diligenza di qualsiasi altra pratica occupazionale soggetta alle leggi anti-discriminazione.