Leggi sull’IA a macchie: lacune in Colorado e Californiah2>
Il panorama delle leggi sull’intelligenza artificiale (IA) negli Stati Uniti presenta una situazione complessa e frammentaria, in particolare in stati come b>Coloradob> e b>Californiab>. Questi stati offrono spunti su come i diritti di privacy degli individui cambiano in base al loro ruolo, passando da “consumatori” a “candidati” o “dipendenti”.p>
La situazione in Coloradoh3>
In Colorado, la legge sulla privacy definisce il termine b>”consumatore”b> in modo tale da escludere i dipendenti e i candidati dalle protezioni offerte. Questo significa che i diritti di opt-out previsti dalla legge sulla privacy non si applicano durante le fasi di assunzione. Tuttavia, la b>Legge sull’IAb> stabilisce che le decisioni relative all’occupazione sono considerate “conseguenziali”, ma non collega queste decisioni ai diritti di opt-out previsti dalla legge sulla privacy.p>
Nonostante ciò, la Legge sull’IA impone obblighi di comportamento per i team delle risorse umane. Prima di prendere una decisione, devono fornire un b>avviso chiarob> riguardo allo scopo del sistema utilizzato. In caso di esito negativo, sono obbligati a fornire dettagli specifici, come il motivo della decisione e un percorso per correggere eventuali dati errati.p>
La situazione in Californiah3>
In California, le cose funzionano in modo diverso. L’autorità di privacy statale tratta i sistemi automatizzati che prendono decisioni relative all’occupazione come b>”significativi”b>. Questo attiva un avviso pre-utilizzo per la Tecnologia di Decisione Automatica (ADMT) e un’opzione di opt-out per tali decisioni. Se una persona decide di opt-out, l’uso dell’ADMT deve cessare entro 15 giorni lavorativi.p>
Inoltre, le norme sui diritti civili della California si applicano anche agli strumenti automatizzati utilizzati per l’assunzione, il miglioramento e altre azioni relative al personale, concentrandosi sul rischio di discriminazione, sui test e sulla documentazione.p>
Le sfide delle lacune legislativeh3>
Un aspetto critico è che i diritti delle persone cambiano a seconda dell’etichetta che li definisce. Si inizia come consumatori e si diventa candidati, attivando differenti normative. Questo scenario genera b>lacuneb> e complicazioni per i team di compliance. Le soluzioni alternative, come l’uso di dati pseudonimi, possono eludere le normative sulla privacy, portando a una diminuzione della trasparenza e a strumenti di correzione degli errori inadeguati.p>
Conclusioni e raccomandazionih3>
Per i legislatori e i regolatori, ci sono due percorsi duraturi da seguire: primo, costruire regole specifiche per il settore dell’IA con esenzioni chiare dai doveri di privacy in conflitto; secondo, armonizzare le definizioni in modo che le persone conservino gli stessi diritti fondamentali durante un processo decisionale automatizzato, indipendentemente dalla loro posizione nell’organizzazione.p>
Queste misure potrebbero fornire un quadro più solido sia per i lavoratori che per i datori di lavoro, mantenendo aperti i percorsi di accesso e rendendo i guardrail più reali.p>