Rischi e opportunità nella legge sull’assunzione AI di New York

New York: audit critico della legge sull’assunzione tramite AI evidenzia rischi aumentati per i datori di lavoro

In breve: i datori di lavoro di New York City devono fornire un preavviso chiaro e tempestivo ai candidati e ai dipendenti quando verrà utilizzato uno strumento di decisione automatizzata per l’impiego (AEDT) e identificare le qualifiche e le caratteristiche lavorative valutate.

Un recente audit del Comptroller ha rivelato che l’applicazione della Legge Locale 144 da parte del Dipartimento per la Protezione dei Consumatori e dei Lavoratori (DCWP) è attualmente inefficace, evidenziando gravi mancanze nel ricevimento delle denunce, nelle revisioni di conformità e nell’uso delle competenze disponibili.

L’audit ha rivelato significative carenze operative, tra cui denunce smistate in modo errato, revisioni superficiali degli audit di bias pubblicamente pubblicati e mancata osservanza delle procedure di enforcement stabilite.

Il DCWP si è impegnato a implementare la maggior parte delle raccomandazioni del Comptroller, segnando un cambiamento verso una sorveglianza più rigorosa e un’attività di enforcement più forte.

I datori di lavoro possono aspettarsi una fase di enforcement più severa, con indagini aumentate e il rischio di sanzioni giornaliere, e sono incoraggiati a condurre inventari degli AEDT, verificare la conformità e rafforzare la documentazione.

Panoramica della Legge Locale 144

La Legge Locale 144 di New York City impone obblighi di valutazione del bias e di trasparenza ai datori di lavoro e alle agenzie per l’impiego che utilizzano AEDT per selezionare candidati o valutare dipendenti per promozioni nella città di New York.

La legge definisce un AEDT come qualsiasi processo computazionale derivato da machine learning, modelli statistici, analisi dei dati o intelligenza artificiale utilizzato per “assistere sostanzialmente” o “sostituire” la decisione discrezionale per le decisioni di impiego.

Secondo la Legge Locale 144, i datori di lavoro che utilizzano strumenti che rientrano nella definizione di AEDT devono rispettare tre obblighi principali:

Audit di bias indipendente

I datori di lavoro devono ingaggiare un auditor indipendente per condurre un audit annuale di bias dello strumento. L’audit deve valutare se lo strumento ha un impatto potenzialmente disparato su gruppi di sesso, razza o etnia specifici calcolando i tassi di selezione e punteggio e i relativi “rapporti di impatto”.

Trasparenza pubblica

I datori di lavoro devono “pubblicare chiaramente e visibilmente” un riepilogo dei risultati dell’ultimo audit di bias sul loro sito web, sia mantenuto dal datore di lavoro che dall’agenzia per l’impiego.

Avvisi ai candidati

I datori di lavoro devono fornire avvisi chiari e tempestivi ai candidati e ai dipendenti di New York City che verrà utilizzato un AEDT nella loro valutazione. L’avviso deve identificare le qualifiche lavorative e le caratteristiche che lo strumento valuta e informare gli individui del loro diritto di “rinunciare” all’uso dell’AEDT richiedendo un processo di selezione alternativo o un accomodamento ragionevole.

Risultati chiave dell’audit segnalano un rischio di enforcement aumentato

L’audit del Comptroller, che ha esaminato le attività del DCWP da luglio 2023 a giugno 2025, ha concluso che il sistema dell’agenzia per l’applicazione della Legge Locale 144 è “inefficace”. L’audit evidenzia diverse carenze critiche.

Ricezione delle denunce carente e enforcement passivo

L’audit ha denunciato un fallimento fondamentale nella strategia di enforcement basata sulle denunce del DCWP, criticando il DCWP per non aver adottato misure proattive per rimediare al sistema. Si è scoperto che le denunce non venivano spesso smistate correttamente al DCWP e che il DCWP aveva istruzioni poco chiare sul proprio sito web e indicazioni insufficienti su come presentare denunce.

Revisioni di conformità superficiali

L’audit ha anche criticato le revisioni del DCWP sugli audit di bias pubblicamente pubblicati dalle aziende, notando che il DCWP aveva esaminato 32 di tali audit e identificato solo un problema di non conformità. La revisione del Comptroller degli stessi audit ha identificato almeno 17 potenziali problemi di non conformità.

Fallimento nell’utilizzare le competenze disponibili

L’audit ha dichiarato che le revisioni inadeguate del DCWP derivano da una mancata applicazione delle procedure corrette. L’agenzia non ha utilizzato il “Workbook di Enforcement” formale o consultato l’ufficio della tecnologia e innovazione per prendere decisioni su potenziali violazioni.

Implicazioni e azioni raccomandate

L’audit del Comptroller segnala un’aspettativa di enforcement aumentato, mettendo il DCWP sotto una pressione pubblica sostanziale. In risposta all’audit, l’agenzia ha accettato di implementare la maggior parte delle raccomandazioni del Comptroller.

I datori di lavoro soggetti alla Legge Locale 144 possono aspettarsi una nuova fase di enforcement rigoroso, che potrebbe includere indagini più frequenti e sanzioni civili più elevate.

Le aziende che utilizzano strumenti automatizzati per l’assunzione o la promozione sono incoraggiate a considerare i seguenti passaggi proattivi:

  • Condurre un inventario completo degli AEDT: determinare se uno strumento rientra nella Legge Locale 144 è un’analisi altamente specifica. Le aziende sono incoraggiate a lavorare con esperti legali per fare un inventario di tutto il software di terze parti e interno utilizzato nei processi di assunzione e promozione.
  • Raggiungere e mantenere la conformità all’audit di bias: le aziende che utilizzano un AEDT sono incoraggiate a garantire un audit di bias conforme per evitare sanzioni significative.
  • Verificare tutte le comunicazioni pubbliche e gli avvisi: le aziende sono incoraggiate a confermare che il riepilogo richiesto del proprio audit sia “chiaramente e visibilmente” disponibile sul sito web dell’azienda.
  • Documentare gli sforzi di conformità: in previsione di un maggiore scrutinio da parte dei regolatori, le aziende sono incoraggiate a mantenere un registro chiaro e organizzato del loro processo di conformità.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...