Regolamentazione dell’Assunzione AI: Le Nuove Strade degli Stati contro l’Opposizione

Sforzi Statali per Regolare l’Utilizzo dell’Intelligenza Artificiale nell’Assunzione

I legislatori statali stanno elaborando strategie per far passare leggi che regolano l’uso dell’intelligenza artificiale (IA) nelle decisioni occupazionali, nonostante l’opposizione dell’industria tecnologica e dell’amministrazione Trump.

Misure Proposte

Legislatori da New York a Texas hanno proposto misure che spaziano dall’obbligo per i datori di lavoro di mitigare il potenziale pregiudizio causato dagli strumenti di assunzione basati sull’IA, fino all’obbligo di divulgazione e possibilità di appello per le decisioni generate dall’IA per i candidati. Nonostante la resistenza di un’industria tecnologica ben finanziata che ha messo da parte alcune legislazioni, il movimento per la regolamentazione rimane forte, anche se le leggi vengono ridotte nel loro ambito.

“Non sono intimorita, ma dobbiamo essere pratici”, ha dichiarato Michelle Maldonado, delegata statale della Virginia, il cui progetto di legge sull’IA è stato veto dal governatore Glenn Youngkin.

Minacce Federali e Precedenti Legislativi

Il presidente Donald Trump ha rilasciato un piano d’azione per l’IA a luglio che includeva minacce di riduzione dei finanziamenti federali e la possibile preclusione da parte della Commissione Federale delle Comunicazioni per le leggi statali sull’IA che l’amministrazione considera eccessivamente restrittive. Il Senato ha anche preso in considerazione, ma ha poi respinto, un linguaggio legislativo che vietava le leggi statali che regolamentano l’IA.

“Questo richiederà di pensare a un approccio diverso”, ha suggerito Maldonado, suggerendo di concentrare la legislazione sulla trasparenza e sulle divulgazioni.

Leggi sulla Trasparenza

Il Colorado ha approvato la legge più ampia contro il pregiudizio dell’IA, ma i legislatori hanno votato ad agosto per ritardarla e tentare di rivederla prima della sua entrata in vigore. Il senatore del Connecticut, James Maroney, ha affermato che anche i legislatori dei blue state che hanno cercato di imitare la misura del Colorado potrebbero essere pronti a restringere il loro focus nel 2026, concentrandosi su restrizioni specifiche per settore o su un approccio esclusivamente trasparente.

Queste proposte enfatizzano “il diritto di sapere se l’IA viene utilizzata per prendere una decisione importante sulla propria vita”, ha affermato Maroney.

Dettagli sulla Trasparenza

Anche se i legislatori statali adottano un focus sulla trasparenza, i dettagli possono variare ampiamente. Una legge dell’Illinois, che entrerà in vigore il 1° gennaio 2026, richiede ai datori di lavoro di fornire avviso ai lavoratori quando utilizzano l’IA per decisioni occupazionali, ma non specifica cosa debba includere l’avviso.

Al contrario, i legislatori del Colorado ad agosto hanno considerato un AI Sunshine Act per sostituire la loro legge più ampia sul pregiudizio dell’IA. Questa legge avrebbe richiesto alle aziende di notificare gli individui riguardo fino a 20 fattori considerati dagli strumenti di IA prima di rifiutarli, oltre alla possibilità di correggere dati inaccurati.

Reazioni dell’Industria

L’industria tecnologica ha manifestato preoccupazione nei confronti della legge del Colorado, inclusa la lingua della misura che cercava di imporre una responsabilità congiunta per le richieste di discriminazione sugli sviluppatori di tecnologia IA insieme alle aziende che utilizzano gli strumenti.

“Siamo incoraggiati nel vedere più legislatori considerare approcci focalizzati sulla trasparenza”, ha affermato David Edmonson, vicepresidente senior delle politiche statali presso l’associazione industriale TechNet. “Sebbene i dettagli siano importanti, la trasparenza può spesso essere un percorso più praticabile rispetto ad alcuni dei requisiti più gravosi che sono stati proposti.”

Prospettive Future

Alcuni stati stanno esercitando pressioni sui datori di lavoro per adottare misure come test sui pregiudizi, mantenere documentazione e altri controlli di sistema. Altri stati si concentrano più sulla trasparenza, sulla privacy dei dati o sugli obblighi di avviso riguardo le decisioni automatizzate, offrendo diritti di appello o di opt-out.

“I datori di lavoro ora hanno l’obbligo di approfondire e sviluppare una comprensione profonda del software che stanno utilizzando”, ha aggiunto Hicks. “Ciò è estremamente critico ora, affinché possano lavorare per soddisfare questi obblighi di conformità che varieranno da stato a stato.”

Minaccia di Preempzione

Come il Congresso potrebbe affrontare la preempzione nelle future legislazioni sull’intelligenza artificiale rimane da vedere, creando rischi per gli stati che avanzano protezioni per l’IA. Il piano d’azione di Trump istruisce le agenzie federali a negare finanziamenti relativi all’IA agli stati le cui leggi minano lo scopo dei fondi, come la promozione della crescita dell’industria IA.

Tuttavia, il piano non chiarisce quali tipi di leggi statali siano soggette a scrutinio federale. “Condizionare i finanziamenti federali sul ‘clima regolatorio’ dell’IA di uno stato è intrinsecamente malleabile e quindi difficile da prevedere”, ha affermato Mackenzie Arnold, direttore della politica statunitense presso l’Istituto per la Legge e l’IA.

Maldonado, che prevede di reintrodurre la sua legislazione nella prossima sessione, non vede il rischio nel muoversi mentre il Congresso cerca di capire come le leggi federali e statali sull’IA si intersecheranno. “Dobbiamo mettere qualcosa in atto, e se viene precluso, va bene”, ha detto, “ma molto probabilmente non sarà così.”

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...