Il Controllo degli Strumenti di Assunzione AI Nascosti: Una Nuova Class Action con Rilevanti Conseguenze Regolatorie
I lavoratori stanno diventando sempre più frustrati dalle pratiche di assunzione basate sull’IA. Una nuova class action intentata in California accusa i candidati umani di essere profilati ingiustamente da tecnologie di assunzione AI “nascoste”, che “si nascondono sullo sfondo” per raccogliere informazioni “sensitive e spesso inaccurate” su candidati “ignari”.
Dettagli della Class Action
La causa è diretta contro un’azienda che utilizza strumenti di assunzione AI, sostenendo che tali strumenti dovrebbero essere regolati allo stesso modo delle agenzie di reporting creditizio ai sensi della Fair Credit Reporting Act (FCRA) e delle leggi statali correlate. I querelanti affermano di essere stati esclusi da opportunità di lavoro a causa di strumenti di assunzione basati sull’IA.
La denuncia afferma che l’azienda ha violato le leggi federali e statali sulla concorrenza leale, raccogliendo dati sui candidati e vendendo rapporti alle aziende per l’uso nelle decisioni di assunzione. Queste pratiche possono avere conseguenze profonde per i candidati negli Stati Uniti.
Il Ruolo dell’IA nelle Assunzioni
L’azienda in questione si presenta come la “più grande fonte di dati sui talenti del mondo”, incorporando oltre 1,5 miliardi di punti dati globali, tra cui titoli di lavoro e profili professionali. Utilizza un modello linguistico proprietario e tecnologie di deep learning per analizzare dati provenienti da risorse pubbliche e social media, senza che questi dati personali vengano mai inclusi nelle domande di lavoro.
Gli algoritmi di IA valutano la “idoneità” di un candidato su una scala numerica, basandosi su “conclusioni, inferenze e assunzioni”. Tuttavia, questi rapporti sono “non revisionabili” e “largamente invisibili” ai candidati, i quali non hanno l’opportunità di contestarne il contenuto prima che vengano forniti ai responsabili delle assunzioni.
Implicazioni e Rischi
La causa porta alla luce una “carenza di governance” e una “mancanza fondamentale di responsabilità”. Questo non è il primo caso e non sarà probabilmente l’ultimo, poiché anche altre aziende stanno affrontando accuse simili. Se i tribunali concordano che le valutazioni dell’IA funzionano come rapporti di credito, l’assunzione sarà spinta in un territorio regolamentato.
Le aziende dovranno dimostrare di aver effettuato le dovute verifiche, mostrando la logica dietro un modello, comprendendo la provenienza dei dati e spiegando perché un candidato è stato rifiutato.
Conclusione
Anche se l’IA può essere utile per il reclutamento, è fondamentale che il suo utilizzo sia trasparente e regolato. I professionisti delle risorse umane devono richiedere prove leggibili dagli esseri umani dai fornitori di queste tecnologie. La futura tecnologia di assunzione dovrà essere governata fin dall’inizio, riportando l’essere umano come attore responsabile.