Employers Turn to AI to Screen Candidates’ Social Media: Best Practices to Minimize Legal Threats
Circa il 70% dei datori di lavoro ora esamina i profili social dei candidati come parte del processo di selezione, ma scorrere manualmente i post su Facebook, i feed di X e le foto di Instagram richiede tempo e può risultare incoerente. Ecco che entrano in gioco gli strumenti di indagine AI sui social media, che promettono di semplificare il processo.
Queste piattaforme utilizzano il natural language processing (NLP) per esaminare i post pubblici dei candidati, analizzare i modelli linguistici e il sentiment, e generare valutazioni della personalità che prevedono tratti come il lavoro di squadra, l’apertura, l’adattabilità o il potenziale di leadership. L’idea è allettante: ottenere approfondimenti più profondi sulla “vera” personalità dei candidati rispetto a quanto rivelato da curriculum e colloqui, risparmiando al team HR innumerevoli ore. Ma prima di utilizzare l’AI per esaminare i social media dei candidati, è necessario comprendere i significativi rischi legali che questi strumenti creano e considerare alcune best practice.
Rischi delle indagini sui social media
Come tutti gli strumenti, l’uso degli strumenti di indagine AI sui social media comporta dei rischi.
Bias e inferenze errate
Esiste un reale rischio di bias e creazione di inferenze errate. Le inferenze false possono derivare da stili culturali o linguistici, code-switching, slang, sarcasmo e meme, tutti elementi che potrebbero portare a una classificazione errata da parte del NLP. E il bias può sorgere quando vengono analizzati segnali “proxy” (follower, reti, posizione), poiché possono rivelare o sostituire tratti protetti.
Problemi di privacy
Ci sono numerose preoccupazioni riguardo a privacy, trasparenza e consenso. Alcune leggi statali sulla privacy dei consumatori e un insieme di leggi sull’AI possono richiedere avvisi, scelte o valutazioni. I candidati globali possono anche implicare leggi internazionali, come il GDPR, che richiede una base legale, trasparenza e una Data Protection Impact Assessment, e ha restrizioni sui dati di categoria speciale.
Preoccupazioni biometriche
Inoltre, gli strumenti di indagine AI sui social media possono sollevare questioni biometriche se utilizzano analisi facciali. Alcuni stati richiedono consenso espresso e altri hanno leggi sulla protezione delle password che limitano la richiesta di accesso agli account.
Limitazioni robotiche
Le limitazioni attuali degli strumenti di indagine AI sui social media pongono anche preoccupazioni di accuratezza, autenticità e contesto. Nelle loro attuali iterazioni, gli strumenti AI non comprendono il contesto o il sarcasmo e rischiano di fraintendere umorismo, citazioni o post storici. Sono vulnerabili a falsi positivi a causa di impersonificazione, deepfake, abbinamenti errati o contenuti obsoleti.
Potenziale di discriminazione
Esaminare i feed social può rivelare religione, disabilità, gravidanza, età, opinioni politiche e una serie di altri fattori protetti che non dovrebbero essere considerati al momento dell’assunzione. E quando si utilizzano strumenti di indagine AI sui social media, la conoscenza di questi fattori potrebbe essere imputata al datore di lavoro, influenzando le decisioni di assunzione.
Legge sul credito equo
Anche se un terzo fornisce un “rapporto sui social media”, potrebbe attivare la FCRA e i requisiti che la accompagnano: divulgazione, autorizzazione, processo di pre-adverse/adverse action e doveri di accuratezza.
Protezione dei dati
Gli strumenti di indagine AI sui social media possono anche presentare rischi di sicurezza e retention. I dati estratti creano rischi di violazione e contenzioso.
Leggi varie
Infine, le protezioni contro le attività lecite al di fuori del lavoro e le protezioni per i whistleblower possono applicarsi a situazioni in cui si monitorano i post sui social media. I datori di lavoro potrebbero anche avere difficoltà a dimostrare che i risultati sono pertinenti al lavoro e coerenti con la necessità aziendale.
Best Practices da Considerare
Ci sono vari modi per mitigare i rischi posti dagli strumenti di indagine AI sui social media.
Definire uno scopo chiaro e legale
Prima di implementare lo screening dei social media, documentare le specifiche ragioni legate al lavoro per la revisione e quali tipi di informazioni sono pertinenti alla posizione. Evitare giustificazioni vaghe come “cultura aziendale” o “personalità generale”. Invece, identificare tratti concreti o segnali di allerta che hanno una connessione dimostrabile con le prestazioni lavorative. Questa documentazione sarà fondamentale se sarà necessario difendere le pratiche di screening contro le rivendicazioni di discriminazione.
Utilizzare revisori di terze parti o firewall
Considerare di far condurre le revisioni sociali da qualcuno al di fuori della catena di assunzione, sia un fornitore esterno che un professionista interno di conformità che non è coinvolto nella decisione di selezione. Questo approccio può aiutare a prevenire che caratteristiche protette influenzino le decisioni dei manager di assunzione. Se si utilizza questo approccio, assicurarsi che il revisore fornisca solo informazioni pertinenti al lavoro ai decisori, non contenuti sociali grezzi o valutazioni che potrebbero rivelare tratti protetti.
Garantire conformità con le leggi sulla privacy e sull’AI
Rivedere le pratiche di screening rispetto alle leggi statali sulla privacy, alle leggi sulla privacy biometrica e alle normative emergenti sull’AI. Se si assumono candidati internazionali, garantire la conformità con il GDPR, che richiede trasparenza, una base legale per il trattamento e una potenziale valutazione d’impatto sulla protezione dei dati. Documentare l’analisi legale e aggiornare le notifiche sulla privacy dei candidati per divulgare che i social media possono essere esaminati come parte del processo di screening.
Validare e documentare la pertinenza al lavoro
Se il vostro strumento AI produce punteggi o valutazioni basati sui dati sociali, trattarlo come qualsiasi altro test di assunzione: deve essere convalidato per dimostrare che prevede effettivamente le prestazioni lavorative e non crea impatti disparati. Collaborare con psicologi industriali-organizzativi o con il proprio consulente legale per condurre studi di validazione, soprattutto se lo strumento misura tratti soggettivi. Senza una validazione documentata, sarà difficile dimostrare la necessità aziendale se lo strumento esclude in modo sproporzionato gruppi protetti.
Formare HR e decisori
Assicurarsi che tutti coloro che sono coinvolti nello screening dei social media comprendano cosa possono e non possono considerare, come evitare bias e quando escalare preoccupazioni. La formazione dovrebbe coprire come riconoscere le caratteristiche protette che dovrebbero essere ignorate, i rischi di fare inferenze basate su reti o affiliazioni, e l’importanza della coerenza tra tutti i candidati. I decisori dovrebbero comprendere che le valutazioni generate dall’AI sono strumenti per informare il giudizio, non sostituti della valutazione umana.
Fornire trasparenza e giusto processo
Informare i candidati che i loro social media pubblici possono essere esaminati e dare loro l’opportunità di spiegare contenuti potenzialmente disqualificanti prima di prendere una decisione finale. Se si scopre informazioni che porterebbero a una decisione avversa, dare al candidato la possibilità di fornire contesto. Questo approccio non solo riduce il rischio legale, ma migliora anche l’esperienza del candidato e protegge il marchio del datore di lavoro.
Seguire le procedure FCRA (se applicabile)
Se un terzo conduce la revisione dei social media e fornisce un rapporto che riguarda il carattere, la reputazione o le caratteristiche personali del candidato, la revisione potrebbe attivare i requisiti FCRA. Ciò significa che è necessario fornire ai candidati una divulgazione autonoma, ottenere l’autorizzazione scritta prima della revisione e seguire le procedure di pre-adverse e adverse action prima di rifiutarli sulla base dei risultati. Consultare il proprio consulente legale se non si è sicuri se la relazione con il fornitore attivi obblighi FCRA.
Limitare la raccolta e la retention dei dati
Raccogliere e mantenere solo i dati sociali necessari per la decisione di screening e stabilire chiare tempistiche di retention. Evitare di raccogliere interi profili social o mantenere database permanenti di informazioni sui candidati, poiché questo aumenta l’esposizione a contenziosi per violazione dei dati e violazioni della privacy. Una volta presa una decisione di assunzione, eliminare o anonimizzare i dati di screening dei social media a meno che non ci sia una legittima ragione aziendale per mantenerli.