Legislatori di New York: Nuove Regole per un AI Sicuro

Legislatori di New York vogliono evitare “danni critici” causati dall’IA

I legislatori dello stato di New York intendono imporre nuovi requisiti di sicurezza per i modelli di intelligenza artificiale (IA) più avanzati al mondo, ma i legislatori federali minacciano di sovvertire le nuove regole prima che possano essere implementate.

Il progetto di legge RAISE

La scorsa settimana, la legislatura statale ha approvato un progetto di legge che richiederebbe ai sviluppatori dei più grandi modelli di IA all’avanguardia di elaborare piani di sicurezza completi che descrivano i passaggi intrapresi per ridurre il rischio di causare danni gravi.

Il provvedimento, noto come Responsible AI Safety and Education (RAISE), richiederebbe anche ai sviluppatori di informare lo stato riguardo a incidenti di sicurezza significativi, come un modello che agisce autonomamente senza che un utente lo solleciti. Il progetto di legge renderebbe i sviluppatori responsabili per determinate violazioni della legge, aprendo la strada al procuratore generale dello stato per richiedere multe civili dell’ordine di decine di milioni di dollari.

Opposizione e sostegno al progetto di legge

Le aziende tecnologiche e le loro organizzazioni commerciali stanno già facendo pressione sul governatore Kathy Hochul affinché veti il provvedimento, sostenendo che questo soffocherebbe l’innovazione in un campo trasformativo. Nel frattempo, i sostenitori del progetto di legge esortano Hochul a firmarlo, affermando che il governo federale non sta procedendo abbastanza rapidamente per regolare un’industria dell’IA in rapida evoluzione che ha un enorme potenziale di cambiamento.

“Credo che in molti modi la politica sull’IA dovrebbe essere a livello federale, ma i federali stanno procedendo lentamente e non hanno fatto nulla in merito,” ha affermato l’assembleista Alex Bores, un democratico di Manhattan. “La bellezza del sistema federale è che possiamo consentire agli stati di sperimentare per provare nuove cose.”

Dettagli del progetto di legge

Il progetto di legge si applicherà ai sviluppatori di modelli di IA definiti fronteira, la tecnologia più grande e all’avanguardia nel campo, che sono sviluppati, distribuiti o destinati a operare a New York.

I sviluppatori saranno tenuti a implementare i loro protocolli di sicurezza prima della distribuzione. Saranno soggetti a una revisione da parte di terzi e dovranno essere resi disponibili al Dipartimento della Sicurezza Nazionale e dei Servizi di Emergenza dello stato, nonché all’Ufficio del Procuratore Generale dello stato.

Prevenzione di danni critici

Il progetto di legge stabilisce che i protocolli di sicurezza siano progettati per ridurre la possibilità di danni critici, incidenti che sono “causati o materialmente abilitati” dal modello di IA dello sviluppatore e che comportano 100 o più feriti o morti o più di 1 miliardo di dollari di danni. Richiede ai sviluppatori di considerare la possibilità che l’IA porti alla creazione di armi chimiche, biologiche o addirittura nucleari.

Il procuratore generale sarà in grado di richiedere multe fino a 10 milioni di dollari per la prima violazione e fino a 30 milioni di dollari per ogni violazione successiva.

Situazione attuale e prospettive future

I legislatori della California hanno già tentato in passato di regolare i sviluppatori di IA in modo simile, ma il provvedimento ha affrontato un’opposizione significativa e il governatore Gavin Newsom lo ha infine vetato.

Tech:NYC, un gruppo commerciale che include Google e Meta, si oppone al progetto di legge RAISE. Julie Samuels, presidente e CEO di Tech:NYC, ha affermato che la sua organizzazione non è contraria alla regolamentazione statale, ma preferirebbe uno standard nazionale. Tuttavia, il gruppo sostiene che la regolamentazione dovrebbe basarsi su usi specifici piuttosto che sull’approccio generale del progetto di legge RAISE.

Hochul è stata un grande sostenitore dell’iniziativa Empire AI, un consorzio pubblico-privato dedicato alla ricerca e allo sviluppo dell’intelligenza artificiale. All’inizio di quest’anno, lei e i legislatori statali hanno approvato misure per regolare i compagni di IA, le app e i personaggi che forniscono supporto emotivo alle persone.

Nel frattempo, il Congresso continua a dibattere se dovrebbe temporaneamente vietare agli stati di regolare l’IA. La Camera dei Rappresentanti ha approvato un moratorium di 10 anni su tale regolamentazione statale come parte di un ampio progetto di legge fiscale del presidente Donald Trump. Il Senato non ha ancora votato sulla sua versione del progetto di legge, ma una commissione ha inserito una lingua che ha ammorbidito la disposizione, consentendo effettivamente agli stati di regolare l’IA se sono disposti a rinunciare ai fondi federali per la banda larga.

Se questa proibizione federale rimane in riconciliazione, l’impatto non è semplicemente un moratorium burocratico; mina il diritto fondamentale e la responsabilità degli stati di proteggere la sicurezza, la salute, la privacy e la vitalità economica dei suoi cittadini.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...