Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Sviluppi nell’Intelligenza Artificiale a New York nel Q1 2025: Cosa Dovrebbero Sapere i Datori di Lavoro sulle Legislazioni Proposte e Approvate

Nel primo semestre del 2025, New York ha fatto un passo significativo nell’ambito della regolamentazione dell’Intelligenza Artificiale (IA), unendosi ad altri stati come Colorado, Connecticut, New Jersey e Texas. Il 8 gennaio 2025, sono stati presentati progetti di legge volti a regolare l’uso degli strumenti decisionali basati sull’IA sia nel Senato che nell’Assemblea Statale di New York.

Il NY AI Act (Legge sull’IA di New York) si propone di affrontare la discriminazione algoritmica regolamentando e limitando l’uso di determinati sistemi di IA, compresi quelli utilizzati nel contesto lavorativo. Questa legge permetterebbe ai cittadini di intentare cause legali contro le aziende tecnologiche. Inoltre, il New York AI Consumer Protection Act (Legge di Protezione dei Consumatori dell’IA) mirerebbe a modificare la legge commerciale generale per prevenire l’uso di algoritmi IA che discriminano classi protette, in particolare nel settore dell’occupazione.

Senate Bill 1169

Il 8 gennaio 2025, l’Senatore di New York Kristen Gonzalez ha introdotto il NY AI Act, sottolineando che “un crescente numero di ricerche dimostra che i sistemi di IA implementati senza adeguati test e supervisione possono danneggiare i consumatori e negare ai gruppi storicamente svantaggiati i loro diritti civili”.

Questa legge coprirebbe tutti i consumatori, definiti come qualsiasi residente dello stato di New York, inclusi residenti che sono sia dipendenti che datori di lavoro. Il NY AI Act stabilisce che “il legislatore deve agire per garantire che tutti gli usi dell’IA, specialmente quelli che influenzano le opportunità di vita importanti, siano privi di pregiudizi dannosi”.

Una delle caratteristiche distintive del NY AI Act è il diritto di azione privata, consentendo ai residenti di New York di presentare reclami contro le aziende tecnologiche per violazioni. Inoltre, la legge prevede che i deployer, ovvero chi utilizza un sistema di IA ad alto rischio, debbano informare l’utente finale in termini chiari e trasparenti circa l’uso di tali sistemi almeno cinque giorni lavorativi prima del loro impiego.

Assembly Bill 768

Il 8 gennaio 2025, anche il membro dell’Assemblea Statale di New York Alex Bores ha introdotto il Protection Act, mirato a prevenire l’uso di algoritmi IA che discriminano contro classi protette. Questa legge richiederebbe un “audit di bias e governance” che comporti una valutazione imparziale da parte di un revisore indipendente per testare l’impatto di un sistema decisionale IA sui dipendenti.

Se approvato, a partire dal 1 gennaio 2027, il Protection Act obbligherebbe i deployer a proteggere i consumatori da rischi noti o prevedibili di discriminazione algoritmica, implementando e mantenendo politiche di gestione del rischio.

Legge Locale del Consiglio di New York City Int. No. 1894-A

Parallelamente alle leggi statali, i datori di lavoro a New York City devono rispettare la Local Law Int. No. 1984-A, entrata in vigore il 5 luglio 2023. Questa legge mira a proteggere i candidati e i dipendenti da pregiudizi discriminatori quando si utilizzano strumenti decisionali automatizzati per le assunzioni.

Conclusioni per i Datori di Lavoro

I datori di lavoro devono lavorare per essere in conformità con la legislazione esistente e prepararsi per future normative statali. È consigliabile:

  • Valutare i sistemi IA: Identificare eventuali sistemi IA sviluppati o implementati dall’azienda, in particolare quelli utilizzati in decisioni significative relative all’occupazione.
  • Rivedere le politiche di gestione dei dati: Assicurarsi che le politiche di gestione dei dati siano conformi agli standard di protezione.
  • Prepararsi per audit: Familiarizzarsi con i requisiti di audit e iniziare a prepararsi per potenziali audit dei sistemi IA ad alto rischio.
  • Sviluppare processi interni: Stabilire processi interni per le segnalazioni relative a violazioni dei sistemi IA.
  • Monitorare la legislazione: Rimanere informati sulle normative proposte e rivedere continuamente le linee guida degli enti federali.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...