Australia sollecitata a chiarire l’uso dell’IA nelle assunzioni mentre si amplia la zona grigia legale
In Australia, i datori di lavoro si stanno sempre più rivolgendo all’intelligenza artificiale per selezionare i candidati per le posizioni lavorative. Tuttavia, non esiste ancora un obbligo legale di informare i candidati quando le decisioni chiave riguardanti le loro carriere sono prese da algoritmi e non da esseri umani.
Un vuoto normativo strano e insostenibile
La mancanza di regolamentazione in questo ambito è considerata “strana” e sempre più insostenibile, soprattutto considerando l’adozione rapida dell’IA nel reclutamento. Circa il 62% delle organizzazioni australiane già utilizza l’IA nei processi di assunzione, con un’adozione ancora più alta tra le aziende globali. Tuttavia, non esiste una legge esplicita che richieda ai datori di lavoro del settore privato di divulgare l’uso dell’IA negli annunci di lavoro o nelle assunzioni.
È necessario introdurre una regolamentazione o requisiti di divulgazione, sottolineano esperti, dato l’importanza dei processi di assunzione e il diritto fondamentale delle persone di guadagnarsi da vivere. Almeno, i candidati dovrebbero sapere come i datori di lavoro che utilizzano l’IA per scremare i candidati gestiscono eventuali bias negli algoritmi.
Regole frammentate e differenze tra pubblico e privato
Sebbene non esista un regime di divulgazione dell’IA dedicato per i datori di lavoro privati, alcune normative esistenti si avvicinano all’uso dell’IA nel reclutamento. Le riforme sulla privacy in fase di considerazione potrebbero intersecarsi con le pratiche di assunzione, in particolare riguardo a come vengono raccolte, elaborate e divulgate le informazioni personali.
Tuttavia, si dubita che queste riforme affrontino pienamente l’impatto negativo derivante dall’affidarsi esclusivamente all’IA. Le agenzie governative, invece, devono emettere dichiarazioni di trasparenza quando utilizzano sistemi automatizzati ad alto rischio, inclusi gli strumenti di assunzione automatizzati.
Rischi e prospettive future
Si prevede che il vuoto normativo attuale non duri a lungo. Ci sono discussioni sulla necessità di leggi, soprattutto considerando che un algoritmo potrebbe di per sé creare bias. Le università hanno avvertito che l’IA potrebbe peggiorare la discriminazione nelle assunzioni.
Con l’IA sempre più integrata nelle assunzioni, è probabile che l’Australia si muova verso processi definiti, potenzialmente emulando i requisiti di trasparenza del governo o emergendo attraverso ulteriori modifiche alla legislazione sulla privacy.
Valore e rischi dell’IA nel reclutamento
Nonostante i rischi, l’IA nel reclutamento è considerata “significativamente preziosa” se utilizzata correttamente. Può aiutare i datori di lavoro a elaborare rapidamente grandi volumi di candidature, identificare qualifiche di base e semplificare lo screening iniziale. Tuttavia, le stesse caratteristiche che rendono potente l’IA possono anche approfondire le disuguaglianze se non controllate.
Strumenti di IA possono svantaggiare gruppi come donne, persone non anglofone, lavoratori più giovani e più anziani, e persone con disabilità, a seconda dei dati storici forniti all’algoritmo, che potrebbero riflettere bias passati.
Il ruolo del giudizio umano
Per quanto promettente sia l’automazione, è fondamentale che l’IA non sostituisca il giudizio umano nelle fasi critiche delle assunzioni. L’IA non può eliminare ciò che deriva da un processo di colloquio, come l’istinto, l’energia e l’adattamento culturale a un ambiente di lavoro.
Con l’aumento dell’uso dell’IA negli annunci di lavoro e nello screening, è fondamentale abbracciare l’efficienza e le intuizioni che l’IA può offrire, ma anche essere trasparenti riguardo al suo utilizzo, gestire attivamente i bias e mantenere gli esseri umani al centro del processo.
In assenza di queste misure, l’Australia rischia di permettere che algoritmi silenziosi plasmino carriere e mezzi di sussistenza in una zona grigia legale, con una regolamentazione e contenziosi più severi all’orizzonte.