Fallimento della legge californiana per la regolamentazione dell’IA ad alto rischio

Fallimento della legge californiana per la regolamentazione dell’IA ad alto rischio

Una proposta di legge californiana sull’intelligenza artificiale, che affrontava l’uso di sistemi decisionali automatizzati nel reclutamento e in altri settori significativi, non è riuscita a progredire nell’assemblea statale durante le ultime ore della sessione legislativa del 2025.

Dettagli della proposta di legge

Il disegno di legge, noto come AB 1018, avrebbe richiesto alle aziende e alle agenzie governative di notificare gli individui quando venivano utilizzati sistemi decisionali automatizzati per decisioni “conseguenziali”, come l’occupazione, l’alloggio, la salute e i servizi finanziari.

La sua autrice, la deputata democratica Rebecca Bauer-Kahan, ha deciso di sospendere il voto sul disegno di legge fino all’anno prossimo per consentire un “maggiore coinvolgimento degli stakeholder e conversazioni costruttive con l’ufficio del Governatore”.

Impatto e opinioni

“Questa pausa riflette il nostro impegno a ottenere questa legislazione critica in modo corretto, non una ritirata dalla nostra responsabilità di proteggere i californiani”, ha dichiarato Bauer-Kahan in un comunicato.

La Business Software Alliance, un’associazione commerciale globale che rappresenta grandi aziende tecnologiche e ha guidato una campagna di opposizione contro il disegno di legge, ha sostenuto che la legislazione avrebbe ingiustamente soggetto le aziende che utilizzano sistemi di IA a un “regime di audit non testato”, rischiando di scoraggiare l’adozione responsabile degli strumenti di IA in tutto lo stato.

Modifiche e allineamenti

Da quando è stata introdotta a febbraio, la proposta di legge è stata modificata per restringere quando sono richiesti gli audit IA, chiarire quali tipi di sistemi e decisioni “ad alto rischio” sono coperti, esentare strumenti a basso rischio come i filtri antispam e aggiungere protezioni per i segreti commerciali, limitando nel contempo quali dettagli dell’audit devono essere resi pubblici.

È stata anche affinata la modalità con cui funzionano le cause legali e i ricorsi, allineando la legge più chiaramente con le attuali leggi sui diritti civili.

Contesto legislativo

Il fallimento di AB 1018 arriva dopo che il legislativo del Colorado ha votato per ritardare l’implementazione del Colorado AI Act, la legislazione statale sull’intelligenza artificiale ad alto rischio, fino alla fine di giugno dell’anno prossimo, cinque mesi dopo la data di attuazione prevista. Analogamente al disegno di legge della California, l’AI Act del Colorado regolerebbe anche i sistemi di IA ad alto rischio in aree come l’occupazione, il prestito, l’alloggio, l’assicurazione e i servizi governativi.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...