Regole sui Sistemi di Decisione Automatizzati in California: Cosa Devono Sapere i Datori di Lavoro

Regolamenti Potenziali sull’Occupazione AI in California: Cosa Devono Sapere i Datori di Lavoro

In un’azione senza precedenti, la California ha finalizzato regolamenti innovativi che affrontano direttamente l’uso dell’intelligenza artificiale (AI) e dei sistemi decisionali automatizzati (ADS) nell’occupazione. Queste norme, approvate dal Consiglio dei Diritti Civili della California nel marzo 2025, inviano un chiaro messaggio: mentre gli strumenti di AI possono essere preziosi nella reclutamento, assunzione e gestione della forza lavoro, non devono essere utilizzati in modi che discriminano i candidati o i dipendenti.

Questi regolamenti dovrebbero entrare in vigore entro la fine dell’anno, una volta approvati dall’Ufficio della Legge Amministrativa. Ecco cosa i datori di lavoro californiani devono sapere.

1. Scopo e Ambito dei Nuovi Regolamenti

I regolamenti mirano a garantire che l’uso crescente della tecnologia nelle decisioni occupazionali sia conforme al Fair Employment and Housing Act (FEHA). In sostanza, le norme estendono le tradizionali protezioni anti-discriminazione all’era digitale attraverso:

  • Definizione di quando e come i sistemi automatizzati sono coperti dalla legge occupazionale californiana
  • Divieto di impatti discriminatori derivanti dagli ADS
  • Imposizione di obblighi di registrazione e comunicazione per i datori di lavoro che utilizzano queste tecnologie

2. Cos’è un Sistema Decisionale Automatizzato (ADS)?

I regolamenti definiscono un ADS come: “Un processo computazionale che prende una decisione o facilita la decisione umana riguardo a un beneficio occupazionale”, inclusi strumenti che si basano su AI, apprendimento automatico, algoritmi o statistiche.

Esempi di ADS includono:

  • Screener di curriculum
  • Sistemi di punteggio per interviste automatizzate che effettuano valutazioni predittive sui candidati o dipendenti
  • Software video che analizza la voce o le espressioni facciali
  • Sistemi che prioritizzano o classificano i candidati
  • Sistemi che indirizzano annunci di lavoro a determinati gruppi

Esclusi: Strumenti di base come elaboratori di testi, fogli di calcolo e software di sicurezza, a condizione che non prendano o influenzino decisioni occupazionali.

3. Principali Divieti e Requisiti

Nessuna Discriminazione: I regolamenti stabiliscono che “è illegale per un datore di lavoro o altro ente coperto utilizzare un sistema di decisione automatizzata o criteri di selezione che discriminano un candidato o un dipendente su una base protetta dalla legge, soggetto a qualsiasi difesa disponibile.”

Aree Ad Alto RischioControlli del Background Criminale: I datori di lavoro non possono utilizzare ADS per esaminare la storia criminale prima di un’offerta condizionale. Anche dopo un’offerta, devono eseguire valutazioni individuali e non possono fare affidamento esclusivamente sui risultati automatizzati.

Obbligo di Fornire Accoglienze: Se uno strumento di AI può svantaggiare un candidato con una disabilità o caratteristica protetta, il datore di lavoro deve offrire un’accoglienza ragionevole (ad esempio, formati di valutazione alternativi).

I Fornitori Terzi Possono Creare Responsabilità: Se un fornitore o un reclutatore utilizza uno strumento ADS per conto del datore di lavoro, quest’ultimo può comunque essere legalmente responsabile. I contratti dovrebbero chiarire le responsabilità di conformità e includere disposizioni di indennizzo.

4. Requisiti di Documentazione e Conformità

I datori di lavoro che utilizzano ADS devono:

  • Conservare dati pertinenti, inclusi i risultati delle decisioni automatizzate e i dati demografici, per almeno quattro anni
  • Tenere i registri separati dai file del personale
  • Condurre e documentare test anti-bias sugli strumenti di AI
  • Rispondere adeguatamente ai risultati dei test

5. Prossimi Passi per i Datori di Lavoro

Se i regolamenti vengono adottati in California, i datori di lavoro dovrebbero:

  • Rivedere Tutti gli ADS e gli Strumenti di AI in Uso – Condurre un audit delle tecnologie utilizzate in reclutamento, assunzione, promozioni e disciplina.
  • Coinvolgere Consulenti Legali o Esperti di Conformità – Valutare se gli strumenti hanno probabilmente un impatto discriminatorio o violano il FEHA.
  • Richiedere Trasparenza dai Fornitori – Chiedere informazioni sui test di bias, sui dati di addestramento e sulla logica del sistema.
  • Implementare Politiche di Comunicazione e Accoglienza – Informare chiaramente i candidati quando verranno utilizzati gli ADS e come possono richiedere un’accoglienza.
  • Utilizzare il Controllo Umano – Non fare affidamento esclusivamente sull’AI per le decisioni occupazionali. Un essere umano dovrebbe rivedere e approvare le decisioni finali.

Se questi regolamenti vengono adottati, la California potrebbe unirsi a giurisdizioni come New York City, Illinois e Colorado nel regolamentare l’AI nel posto di lavoro. Mentre il governo federale sta ancora sviluppando il proprio approccio, stati come la California potrebbero iniziare a regolare come l’AI può essere utilizzata nelle decisioni occupazionali.

I datori di lavoro operanti in California devono trattare l’AI e l’automazione con la stessa attenzione e diligenza di qualsiasi altra pratica occupazionale soggetta alle leggi anti-discriminazione.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...