Legislatori Statali Cercano di Regolare l’Uso dell’IA da Parte dei Datori di Lavoro per le Decisioni sui Salari
Con il crescente impiego degli strumenti e software di intelligenza artificiale (IA) da parte dei datori di lavoro per supportare le operazioni aziendali, i legislatori statali stanno prestando attenzione a questa tendenza. In particolare, stanno esaminando l’uso dell’IA e degli strumenti decisionali automatizzati per stabilire o influenzare la compensazione dei dipendenti, con l’obiettivo dichiarato di limitare gli impatti potenzialmente discriminatori derivanti dall’uso dell’impostazione algoritmica dei salari e di aumentare la trasparenza per i dipendenti e i candidati riguardo all’uso di tale tecnologia.
Attività Legislativa Statale Recente
Diversi stati, tra cui California, Colorado, Georgia e Illinois, hanno introdotto leggi nel 2025 per porre parametri sulle decisioni retributive guidate dall’IA. Anche i legislatori di New York e Maryland hanno continuato questa tendenza nel gennaio 2026, presentando progetti di legge con restrizioni simili.
Sebbene queste leggi proposte non siano tutte identiche, condividono alcune caratteristiche comuni. Innanzitutto, definiscono “sistemi decisionali automatizzati” come sistemi, software o processi—compresi quelli che si basano su tecniche di apprendimento automatico o IA—utilizzati per assistere o sostituire il processo decisionale umano. Nel contesto occupazionale, queste definizioni comprendono strumenti e software per le risorse umane automatizzati che utilizzano regole predefinite per elaborare dati attraverso algoritmi e supportare le funzioni delle risorse umane.
Inoltre, la maggior parte di queste leggi proposte fornisce indicazioni per condotte che non costituirebbero un uso illecito dell’impostazione algoritmica dei salari. Queste esclusioni includono, ad esempio, quando i datori di lavoro (1) offrono salari individualizzati basati su dati relativi ai servizi svolti dai lavoratori; (2) comunicano in linguaggio semplice il loro uso di sistemi decisionali automatizzati, compresi i dati considerati dai sistemi e come tali dati vengono elaborati, ai dipendenti e ai candidati la cui compensazione è influenzata o determinata da questi metodi; e (3) sviluppano e implementano procedure per garantire l’accuratezza dei dati considerati dai sistemi decisionali automatizzati nell’impostazione dei salari.
Rischi Legali Associati alle Decisioni di Compensazione Guidate dall’IA
I legislatori che sostengono queste leggi proposte hanno sottolineato che l’uso non regolamentato dell’IA da parte dei datori di lavoro nelle decisioni retributive può portare a risultati discriminatori. Infatti, le decisioni di compensazione guidate dall’IA da parte dei datori di lavoro possono essere coperte e perseguibili ai sensi di varie leggi sul lavoro.
La natura dei sistemi decisionali automatizzati crea già rischi legali unici per i datori di lavoro, in particolare nel contesto dell’affidamento a questi sistemi per le determinazioni retributive dei dipendenti. Una delle sfide principali che i datori di lavoro affrontano nell’uso degli strumenti guidati dall’IA è la mancanza di trasparenza su come questi strumenti arrivano alle loro conclusioni o raccomandazioni. Mentre i decisori umani possono spiegare il ragionamento alla base delle decisioni retributive, è difficileè e in alcuni casi può essere impossibile—discernere il ragionamento sottostante alle decisioni prese da determinati strumenti di IA. Ciò rende i datori di lavoro vulnerabili a sfide legali riguardanti le decisioni retributive rese da strumenti o software di IA.
Conclusioni per i Datori di Lavoro
Per ora, i datori di lavoro dovrebbero assicurarsi di essere in conformità con le leggi federali e statali applicabili che sono state promulgate o che entreranno in vigore nel 2026. Ciò include, almeno, l’identificazione di ciascun strumento di IA attualmente utilizzato nel processo decisionale occupazionale e la valutazione se tali strumenti siano soggetti a regolamentazione da parte di leggi statali o locali. I datori di lavoro dovrebbero anche stabilire e implementare una politica completa sull’IA che delinei le procedure interne per l’uso dell’IA, fornisca le necessarie comunicazioni ai dipendenti e ai candidati riguardo all’uso dell’IA e richieda la supervisione umana delle raccomandazioni guidate dall’IA.
Guardando al futuro, i datori di lavoro dovrebbero monitorare attivamente gli sviluppi nella legislazione federale, statale e locale e nei regolamenti delle agenzie mirati a governare l’uso dell’IA nelle decisioni relative alla compensazione dei dipendenti e ad altri termini occupazionali. Man mano che gli stati si affrettano a stabilire confini per il ruolo dell’IA nel processo decisionale sul posto di lavoro, i datori di lavoro che eseguono audit proattivi delle loro pratiche legate all’IA e danno priorità a un coinvolgimento umano trasparente nei processi decisionali, comprese le decisioni retributive, saranno meglio posizionati per ridurre i rischi legali e adattarsi ai requisiti normativi in evoluzione.