Nuove Leggi sull’AI: New York Si Allinea alla California

Con il RAISE Act, New York si Allinea alla California sulle Leggi sull’IA Avanzata

In mezzo a un dibattito nazionale sulle leggi relative all’IA, New York è diventato il secondo stato a imporre nuovi requisiti sui modelli di IA avanzata e sulle aziende che li sviluppano. Tuttavia, invece di contribuire a un mosaico di leggi statali che potrebbero emergere nei prossimi mesi, il Responsible AI Safety and Education (RAISE) Act segue un percorso diverso: armonizza direttamente con le regole esistenti.

Il RAISE Act e la sua Connessione con la California

Il RAISE Act, originato da membri dell’Assemblea di New York e senatori, adotta il paradigma “trust but verify” stabilito dal SB-53, la legge californiana che è diventata la prima legge sull’IA avanzata negli Stati Uniti. Entrambe le leggi creano un insieme centrale di requisiti di trasparenza, obbligando gli sviluppatori a pubblicare quadri di rischio per l’IA avanzata e a segnalare incidenti di sicurezza alle autorità statali.

Sebbene le leggi differiscano in modi minori ma significativi, la loro convergenza è importante. Le peggiori paure di coloro che sostenevano che il governo federale dovesse intervenire per prevenire un’ondata di leggi statali sull’IA non si sono avverate, almeno per quanto riguarda le regole sull’IA avanzata. Anche in assenza di un quadro federale, l’armonia tra California e New York significa che gli sviluppatori non stanno affrontando l’onere di conformità aggiuntivo previsto dai sostenitori della preemption.

Struttura del RAISE Act

Il RAISE Act, che entrerà in vigore il 1° gennaio 2027, si basa pesantemente sul framework “trust but verify” del SB-53; in molti casi, copia direttamente il testo della legge californiana. La maggior parte delle scoperte legislative, che inquadrano gli obiettivi della legge e forniscono indicazioni interpretative su ciò che il legislatore intendeva, sono le stesse. Il RAISE Act prende in prestito molte delle definizioni chiave dal SB-53, comprese quelle per rischio catastrofico, incidente di sicurezza critico e modello di base.

Entrambe le leggi applicano i requisiti più rigorosi ai modelli di IA addestrati su più di 1026 FLOPS e alle aziende con ricavi lordi annuali superiori a 500 milioni di dollari nell’anno precedente. Al cuore di entrambe le leggi c’è un insieme identico di requisiti di trasparenza per lo sviluppo dell’IA avanzata. Come il SB-53, il RAISE richiede alle aziende di pubblicare il loro approccio ai test di sicurezza, alla mitigazione dei rischi, alla risposta agli incidenti e ai controlli di cybersicurezza.

Implicazioni e Rischi

La questione principale sollevata dalla nuova legge è se sarà superata da uno sforzo federale per sovrascrivere la regolamentazione statale dell’IA e se tale regola federale seguirà le disposizioni del SB-53 e del RAISE Act o adotterà un approccio diverso e possibilmente più permissivo. Il governo federale ha annunciato sforzi rinnovati per precludere le leggi statali sull’IA attraverso regolamenti federali o azioni congressuali.

Anche se non esiste un’autorità di regolamentazione chiara che possa bloccare la legge, ci sono stati segnali di un consenso iniziale tra gli stati riguardo alla politica sull’IA avanzata. Governatori di entrambi i partiti hanno espresso il desiderio di regolare l’IA e sono stati introdotti progetti di legge focalizzati sulla trasparenza che si sovrappongono al SB-53 in altri stati.

Conclusione

Nonostante il percorso del governo federale verso un quadro unificato rimanga poco chiaro, gli stati potrebbero muoversi verso un consenso iniziale sulla politica dell’IA avanzata. Tuttavia, rimangono domande significative su come il framework “trust but verify” sarà implementato e se gli stati hanno la capacità e la comprensione necessarie per far rispettare queste leggi. La reale applicazione di queste nuove leggi determinerà se i framework di trasparenza e responsabilità creeranno un’effettiva accountability o si riveleranno sforzi puramente simbolici nel guidare l’IA avanzata.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...