Intelligenza Artificiale: Trasformare il Reclutamento e le Assunzioni

Utilizzo dell’IA nel Reclutamento e Assunzione – Considerazioni per le Aziende dell’UE e degli Stati Uniti

L’uso dell’IA sta trasformando il panorama del reclutamento a livello globale, rendendo i processi come la selezione dei curriculum e l’interazione con i candidati più efficienti. Questa evoluzione si manifesta attraverso vari metodi, tra cui:

  • l’uso di ricerche per parole chiave per classificare ed eliminare automaticamente i candidati da un pool di candidati con un supervisione umana minima;
  • l’esecuzione di compiti di reclutamento tramite chatbot che interagiscono con i candidati;
  • la formulazione di test di abilità e attitudine;
  • l’analisi di interviste video per valutare l’idoneità di un candidato a una posizione specifica.

Oltre a massimizzare l’efficienza, l’IA può essere utilizzata per prendere decisioni automatizzate e sostanziali relative al reclutamento, all’assunzione e alla performance attraverso l’uso di analytics predittivi che prevedono il successo di un candidato in un ruolo specifico.

Regolamentazione dell’Uso dell’IA nell’Unione Europea e negli Stati Uniti

L’Unione Europea ha adottato un approccio unito alla regolamentazione dell’IA, governando tutti gli Stati membri tramite il Regolamento dell’IA dell’UE, entrato in vigore il 1° agosto 2024. L’ambito di applicazione di questo regolamento si applica a tutti i fornitori e utilizzatori con sede nell’UE, nonché a coloro che immettono un sistema di IA nel mercato dell’UE o utilizzano i risultati di un sistema di IA nell’UE. Le parti situate al di fuori dell’UE devono pertanto essere consapevoli che il Regolamento dell’IA dell’UE può applicarsi anche a loro.

Il Regolamento dell’IA dell’UE categorizza i sistemi di IA in diverse categorie di rischio, con le regole applicabili che diventano più rigorose man mano che aumenta il rischio per la salute, la sicurezza e i diritti fondamentali. Gli strumenti HR sono considerati sistemi di IA ad alto rischio se:

  • sono utilizzati per il reclutamento o la selezione dei candidati;
  • forniscono la base per decisioni legate all’occupazione, ad esempio, promozioni o licenziamenti.

Dal 2 febbraio 2025, il Regolamento dell’IA dell’UE richiede alle aziende di eliminare i sistemi di IA “inaccettabili” e di formare in modo completo tutti i dipendenti che utilizzano sistemi di IA riguardo all’uso conforme dell’IA secondo il regolamento.

Al contrario, gli Stati Uniti non hanno attualmente regolamenti uniformi sull’IA a livello federale. Sebbene l’amministrazione Biden avesse incaricato agenzie governative come il Dipartimento del Lavoro e la Commissione per le Pari Opportunità di Lavoro di monitorare l’uso degli strumenti di IA e fornire orientamenti per migliorare la conformità con le leggi anti-discriminazione e sulla privacy, nel gennaio 2025, il Presidente Trump ha espresso il suo sostegno alla deregolamentazione, emanando un ordine esecutivo intitolato “Rimozione degli Ostacoli alla Leadership Americana nelle Questioni di Intelligenza Artificiale”. Da allora, le agenzie federali hanno rimosso tutti i precedenti orientamenti sull’uso dell’IA.

In risposta all’ordine esecutivo a favore della deregolamentazione dell’IA, le regolazioni riguardanti l’uso dell’IA sono state introdotte e approvate a livello statale. Tuttavia, la legislazione approvata non diventa sempre vincolante. Ad esempio, a febbraio 2025, il legislatore della Virginia ha approvato il High-Risk Artificial Intelligence Developer and Deployer Act, che avrebbe richiesto alle aziende che creano o utilizzano sistemi di IA “ad alto rischio” in ambito lavorativo di implementare salvaguardie contro la “discriminazione algoritmica”. Tuttavia, il governatore ha posto il veto all’Atto il 24 marzo 2025, e quindi l’Atto non è attualmente applicabile.

L’IA Può Innescare Altre Violazioni Legali

Oltre a conformarsi a leggi come il Regolamento dell’IA dell’UE, le aziende che utilizzano l’IA nei loro processi di reclutamento e assunzione devono prestare attenzione affinché tale uso non inneschi una violazione di altre leggi. Ad esempio:

  • Pregiudizio e Discriminazione: Gli algoritmi utilizzati dall’IA nel reclutamento e nell’assunzione possono perpetuare involontariamente pregiudizi, portando a discriminazioni contro i candidati sulla base di razza, genere, età o altre caratteristiche protette. La discriminazione è vietata nell’UE ai sensi della Direttiva del Consiglio 2000/78/CE, che vieta la discriminazione nell’occupazione, nell’istruzione e nella sicurezza pubblica, così come negli Stati Uniti attraverso oltre cento leggi federali, statali e locali contro la discriminazione.
  • Sicurezza dei Dati e Proprietà: Le aziende che inseriscono i dati personali dei potenziali candidati in un sistema di IA hanno determinate obbligazioni legali riguardo al mantenimento della sicurezza di tali dati, così come considerazioni riguardo alla proprietà di tali dati. Questi obblighi sono regolati dal Regolamento Generale sulla Protezione dei Dati (GDPR) dell’UE, entrato in vigore il 25 maggio 2018. Negli Stati Uniti, oltre 20 giurisdizioni hanno approvato leggi che impongono obblighi sui datori di lavoro che utilizzano l’IA per raccogliere e trattare i dati di candidati e dipendenti.
  • Invasione della Privacy: I datori di lavoro che raccolgono dati di candidati e/o dipendenti tramite strumenti di IA possono involontariamente invadere la privacy di tali candidati e dipendenti, e dovrebbero essere consapevoli delle leggi sulla privacy applicabili, che potrebbero richiedere all’azienda di ottenere il consenso dal candidato o dipendente prima di effettuare determinate ricerche.

Penalità per Non Conformità

Un datore di lavoro dell’UE che viola le leggi sopra menzionate relative a discriminazione, sicurezza dei dati e privacy rischia risarcimenti significativi (sebbene inferiori rispetto agli Stati Uniti), oltre a pesanti sanzioni amministrative da parte di agenzie come l’Ufficio dell’IA europeo e le autorità nazionali per la protezione dei dati.

Le richieste di risarcimento per singole violazioni possono variare significativamente tra le giurisdizioni, e gli Stati membri dell’UE mantengono l’autonomia nazionale nel determinare gli importi dei risarcimenti. Tuttavia, le sentenze storiche della Corte di Giustizia dell’UE sottolineano l’importanza di emettere risarcimenti che corrispondano alla natura e all’estensione dei diritti protetti dall’UE violati.

Alcuni paesi europei, come Estonia, Ungheria, Irlanda, Svezia, Austria e Finlandia, hanno stabilito limiti legali o consuetudinari sui risarcimenti ai dipendenti nel caso in cui un’azienda non rispetti le normative anti-discriminazione applicabili, con tali risarcimenti che variano da EUR 500 a 104 settimane di stipendio. Al contrario, in Polonia, Germania e Paesi Bassi, i risarcimenti non sono formalmente limitati, sebbene in pratica i premi siano relativamente bassi rispetto agli Stati Uniti. Le leggi nazionali di alcuni paesi europei, come il Regno Unito, prevedono risarcimenti punitivi, il che aumenterebbe ulteriormente l’importo dei risarcimenti assegnati.

Oltre a quanto sopra, le sanzioni amministrative per violazioni delle leggi sulla sicurezza dei dati e sulla privacy ai sensi del GDPR possono raggiungere fino al maggiore tra EUR 20.000.000 o il 4% del fatturato annuo mondiale di un’azienda per l’anno finanziario precedente.

Ai sensi del Regolamento dell’IA dell’UE, sia un datore di lavoro dell’UE che un datore di lavoro non UE che utilizza i risultati di un sistema di IA nell’UE possono essere multati fino al maggiore tra EUR 35.000.000 o il 7% del fatturato annuo mondiale di un’azienda per l’anno finanziario precedente. Negli Stati Uniti, le penalità variano a seconda della giurisdizione. A New York City, ad esempio, un datore di lavoro può incorrere in una multa fino a $500 per una prima violazione, e tra $500 e $1.500 al giorno per ciascuna violazione successiva o continuativa.

Considerazioni per i Datori di Lavoro

Per ridurre l’esposizione, i datori di lavoro dovrebbero considerare di adottare i seguenti passi:

  • Per l’UE (inclusi le aziende non UE soggette alle leggi dell’UE come indicato sopra):
    • Eliminare l’uso dell’IA considerato “inaccettabile” ai sensi del Regolamento dell’IA dell’UE.
    • Formare i dipendenti all’uso dell’IA in conformità con il Regolamento dell’IA dell’UE, le leggi sulla sicurezza dei dati e sulla privacy applicabili, e le politiche aziendali.
    • Prepararsi per ulteriori nuovi requisiti che entreranno in vigore nell’agosto 2026.
  • Per gli Stati Uniti:
    • Informare i candidati quando si utilizza l’IA nel reclutamento e nell’assunzione e ottenere il consenso scritto informato da un candidato prima di utilizzare l’IA per elaborare dati sensibili.
    • Fornire un metodo alternativo di screening nel caso in cui il candidato rifiuti l’uso dell’IA.
    • Utilizzare sistemi di IA (inclusi procedure di test) che forniscono parametri chiari che possono essere successivamente verificati.
    • Eseguire test indipendenti periodici per il bias dei sistemi di IA e degli strumenti di reclutamento.
    • Includere supervisione umana nel processo decisionale.

More Insights

Ingegneri AI e Ingegneri Responsabili: Innovazione e Etica a Confronto

L'intelligenza artificiale ha fatto esplodere le sue capacità, portando gli ingegneri dell'IA a essere in prima linea nell'innovazione. Tuttavia, questa potenza comporta responsabilità, e garantire...

AI Responsabile: Oltre il Buzzword

La dottoressa Anna Zeiter sottolinea che "l'IA responsabile non è solo un termine di moda, ma un imperativo fondamentale" per garantire la fiducia e la responsabilità nell'uso delle tecnologie...

Integrare l’IA rispettando la compliance

L'adozione dell'IA nelle aziende e nella produzione sta fallendo almeno due volte più spesso di quanto non abbia successo. Il Cloud Security Alliance (CSA) afferma che il problema reale è che le...

La preservazione dei dati nell’era dell’IA generativa

Gli strumenti di intelligenza artificiale generativa (GAI) sollevano preoccupazioni legali come la privacy dei dati e la sicurezza. È fondamentale che le organizzazioni stabiliscano politiche di...

Intelligenza Artificiale Responsabile: Principi e Vantaggi

Oggi, l'IA sta cambiando il nostro modo di vivere e lavorare, quindi è molto importante utilizzarla nel modo giusto. L'IA responsabile significa creare e utilizzare IA che sia equa, chiara e...

Intelligenza Artificiale: Costruire Fiducia e Governance per il Successo Aziendale

Negli ultimi venti anni, l'intelligenza artificiale (AI) è diventata fondamentale per prendere decisioni aziendali e affrontare sfide complesse. È essenziale costruire fiducia nell'AI attraverso...

Regolamentazione dell’IA in Spagna: Innovazioni e Sfide

La Spagna è all'avanguardia nella governance dell'IA con il primo regolatore europeo per l'IA (AESIA) e una legge nazionale sull'IA in fase di sviluppo. Questa legge mira a implementare e integrare il...

Regolamentare l’IA: sfide e opportunità globali

L'intelligenza artificiale (AI) ha fatto enormi progressi negli ultimi anni, diventando sempre più presente nella consapevolezza pubblica. I governi e gli organismi di regolamentazione in tutto il...

AI e scommesse: opportunità e responsabilità nel futuro del gioco

L'implementazione dell'Intelligenza Artificiale (IA) nel settore del gioco d'azzardo offre opportunità significative, ma comporta anche crescenti aspettative normative e rischi di responsabilità. È...