Nuove regolamentazioni sull’IA per decisioni “ad alto rischio”
Con l’aumento dell’uso dell’intelligenza artificiale sia nel settore pubblico che privato per prendere decisioni significative, i legislatori stanno cercando di stabilire nuovi limiti per questi strumenti. Questo è stato il tema di un’audizione tenuta di recente, in cui i rappresentanti dei sindacati e dell’industria tecnologica hanno presentato le loro posizioni.
Problemi di discriminazione
Nel corso degli anni, ci sono stati rapporti crescenti sull’uso di strumenti di IA in contesti ad alto rischio. Quando non funzionano come previsto, possono causare danni reali. Uno dei problemi principali è la potenziale discriminazione in campi come l’occupazione, l’abitazione e la sanità. Già nei call center, l’IA viene utilizzata per monitorare le chiamate, fornire feedback e gestire i chatbot.
Inoltre, in ospedali e altri settori, questi strumenti vengono impiegati per fare diagnosi e verificare la copertura assicurativa per i pazienti. La questione è ancora più complessa quando si considera che strumenti di IA sono stati addestrati su dati obsoleti, il che può portare a decisioni basate su fattori che riflettono razza e stato socioeconomico, minando l’expertise dei professionisti.
Proposte di legge per la regolamentazione
Per affrontare queste problematiche, è stata proposta una legge che richiede agli sviluppatori di strumenti di IA e alle entità che desiderano utilizzarli di adottare misure ragionevoli per prevenire la discriminazione algoritmica. I test regolari tramite audit indipendenti sarebbero necessari per valutare il rischio di discriminazione e la conformità alle normative statali.
Inoltre, le aziende sarebbero obbligate a notificare quando viene utilizzato uno strumento di decisione automatizzato e a consentire agli utenti di rifiutare tali strumenti, richiedendo un intervento umano.
Opinioni dell’industria tecnologica
I rappresentanti del settore tecnologico si sono opposti alla legge, sostenendo che creerebbe un onere normativo, soffocherebbe l’innovazione e renderebbe difficile per le piccole imprese e le organizzazioni no-profit utilizzare questi strumenti a causa dei costi associati. Hanno suggerito che esistono già leggi antidiscriminazione robuste nello stato e che potrebbero essere applicate per affrontare le pratiche problematiche.
Conclusione
Altri disegni di legge in discussione includono norme su come i datori di lavoro possono monitorare i lavoratori utilizzando l’IA e regole su come l’IA viene utilizzata nelle organizzazioni mediatiche. I legislatori avranno tempo fino alla conclusione della sessione legislativa, prevista per inizio giugno, per esaminare queste misure.