Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Sviluppi nell’Intelligenza Artificiale a New York nel Q1 2025: Cosa Dovrebbero Sapere i Datori di Lavoro sulle Legislazioni Proposte e Approvate

Nel primo semestre del 2025, New York ha fatto un passo significativo nell’ambito della regolamentazione dell’Intelligenza Artificiale (IA), unendosi ad altri stati come Colorado, Connecticut, New Jersey e Texas. Il 8 gennaio 2025, sono stati presentati progetti di legge volti a regolare l’uso degli strumenti decisionali basati sull’IA sia nel Senato che nell’Assemblea Statale di New York.

Il NY AI Act (Legge sull’IA di New York) si propone di affrontare la discriminazione algoritmica regolamentando e limitando l’uso di determinati sistemi di IA, compresi quelli utilizzati nel contesto lavorativo. Questa legge permetterebbe ai cittadini di intentare cause legali contro le aziende tecnologiche. Inoltre, il New York AI Consumer Protection Act (Legge di Protezione dei Consumatori dell’IA) mirerebbe a modificare la legge commerciale generale per prevenire l’uso di algoritmi IA che discriminano classi protette, in particolare nel settore dell’occupazione.

Senate Bill 1169

Il 8 gennaio 2025, l’Senatore di New York Kristen Gonzalez ha introdotto il NY AI Act, sottolineando che “un crescente numero di ricerche dimostra che i sistemi di IA implementati senza adeguati test e supervisione possono danneggiare i consumatori e negare ai gruppi storicamente svantaggiati i loro diritti civili”.

Questa legge coprirebbe tutti i consumatori, definiti come qualsiasi residente dello stato di New York, inclusi residenti che sono sia dipendenti che datori di lavoro. Il NY AI Act stabilisce che “il legislatore deve agire per garantire che tutti gli usi dell’IA, specialmente quelli che influenzano le opportunità di vita importanti, siano privi di pregiudizi dannosi”.

Una delle caratteristiche distintive del NY AI Act è il diritto di azione privata, consentendo ai residenti di New York di presentare reclami contro le aziende tecnologiche per violazioni. Inoltre, la legge prevede che i deployer, ovvero chi utilizza un sistema di IA ad alto rischio, debbano informare l’utente finale in termini chiari e trasparenti circa l’uso di tali sistemi almeno cinque giorni lavorativi prima del loro impiego.

Assembly Bill 768

Il 8 gennaio 2025, anche il membro dell’Assemblea Statale di New York Alex Bores ha introdotto il Protection Act, mirato a prevenire l’uso di algoritmi IA che discriminano contro classi protette. Questa legge richiederebbe un “audit di bias e governance” che comporti una valutazione imparziale da parte di un revisore indipendente per testare l’impatto di un sistema decisionale IA sui dipendenti.

Se approvato, a partire dal 1 gennaio 2027, il Protection Act obbligherebbe i deployer a proteggere i consumatori da rischi noti o prevedibili di discriminazione algoritmica, implementando e mantenendo politiche di gestione del rischio.

Legge Locale del Consiglio di New York City Int. No. 1894-A

Parallelamente alle leggi statali, i datori di lavoro a New York City devono rispettare la Local Law Int. No. 1984-A, entrata in vigore il 5 luglio 2023. Questa legge mira a proteggere i candidati e i dipendenti da pregiudizi discriminatori quando si utilizzano strumenti decisionali automatizzati per le assunzioni.

Conclusioni per i Datori di Lavoro

I datori di lavoro devono lavorare per essere in conformità con la legislazione esistente e prepararsi per future normative statali. È consigliabile:

  • Valutare i sistemi IA: Identificare eventuali sistemi IA sviluppati o implementati dall’azienda, in particolare quelli utilizzati in decisioni significative relative all’occupazione.
  • Rivedere le politiche di gestione dei dati: Assicurarsi che le politiche di gestione dei dati siano conformi agli standard di protezione.
  • Prepararsi per audit: Familiarizzarsi con i requisiti di audit e iniziare a prepararsi per potenziali audit dei sistemi IA ad alto rischio.
  • Sviluppare processi interni: Stabilire processi interni per le segnalazioni relative a violazioni dei sistemi IA.
  • Monitorare la legislazione: Rimanere informati sulle normative proposte e rivedere continuamente le linee guida degli enti federali.

More Insights

Proteggere i dati: Rischi e responsabilità nell’uso dell’IA

L'uso di strumenti AI come ChatGPT e altri assistenti virtuali richiede attenzione riguardo alle informazioni condivise, specialmente quando si tratta di dati riservati o protetti. È fondamentale...

Legge sull’IA in Colorado: incertezze e sfide per le imprese

La legge pionieristica del Colorado sulla regolamentazione dell'intelligenza artificiale ha subito un aggiornamento fallito, lasciando i datori di lavoro con incertezze significative riguardo alla...

Strategie per la Conformità nell’Era dell’Intelligenza Artificiale

Il Summit sulla Governance e Strategia dell'IA esplorerà le sfide della conformità e della regolamentazione dell'IA attraverso diverse giurisdizioni. I partecipanti otterranno approfondimenti pratici...

Governanza dell’IA: Accelerare l’Innovazione Responsabile

L'intelligenza artificiale (AI) si sta sviluppando rapidamente e molte agenzie federali faticano a mantenere il passo con la governance. È fondamentale implementare modelli di governance adattivi e...

Governanza dell’IA: Le chiavi per il successo aziendale

L'intelligenza artificiale non è più un concetto futuristico, ma è diventata un fattore fondamentale per le aziende di tutto il mondo. Un Centro di Eccellenza per l'IA svolge un ruolo chiave...

Due leggi sull’IA: Direzioni opposte e sfide emergenti

La legislatura del Colorado ha respinto emendamenti all'Atto sull'Intelligenza Artificiale (CAIA), mentre lo Utah ha approvato emendamenti che includono una protezione per i chatbot di salute mentale...

Difficoltà di attuazione della legge sull’IA nell’UE: mancanza di fondi e competenze

Le difficoltà di finanziamento e la perdita di competenze rappresenteranno sfide per l'applicazione della legge sull'IA dell'UE, ha affermato l'esperto di politica digitale del Parlamento europeo, Kai...

Governare l’AI: Innovazione e Compliance Universitaria

Con l'integrazione dell'intelligenza artificiale (IA) nell'istruzione superiore, le università devono adottare pratiche di governance robuste per garantire un uso responsabile dell'IA. Le istituzioni...

Equilibrio tra innovazione e sicurezza nell’era dell’IA

Il congresista Ted Lieu si impegna a garantire che il futuro dell'intelligenza artificiale (AI) non sia solo intelligente, ma anche saggio. Sottolinea l'importanza di una regolamentazione che...