Con il RAISE Act, New York si Allinea alla California sulle Leggi sull’IA Avanzata
In mezzo a un dibattito nazionale sulle leggi relative all’IA, New York è diventato il secondo stato a imporre nuovi requisiti sui modelli di IA avanzata e sulle aziende che li sviluppano. Tuttavia, invece di contribuire a un mosaico di leggi statali che potrebbero emergere nei prossimi mesi, il Responsible AI Safety and Education (RAISE) Act segue un percorso diverso: armonizza direttamente con le regole esistenti.
Il RAISE Act e la sua Connessione con la California
Il RAISE Act, originato da membri dell’Assemblea di New York e senatori, adotta il paradigma “trust but verify” stabilito dal SB-53, la legge californiana che è diventata la prima legge sull’IA avanzata negli Stati Uniti. Entrambe le leggi creano un insieme centrale di requisiti di trasparenza, obbligando gli sviluppatori a pubblicare quadri di rischio per l’IA avanzata e a segnalare incidenti di sicurezza alle autorità statali.
Sebbene le leggi differiscano in modi minori ma significativi, la loro convergenza è importante. Le peggiori paure di coloro che sostenevano che il governo federale dovesse intervenire per prevenire un’ondata di leggi statali sull’IA non si sono avverate, almeno per quanto riguarda le regole sull’IA avanzata. Anche in assenza di un quadro federale, l’armonia tra California e New York significa che gli sviluppatori non stanno affrontando l’onere di conformità aggiuntivo previsto dai sostenitori della preemption.
Struttura del RAISE Act
Il RAISE Act, che entrerà in vigore il 1° gennaio 2027, si basa pesantemente sul framework “trust but verify” del SB-53; in molti casi, copia direttamente il testo della legge californiana. La maggior parte delle scoperte legislative, che inquadrano gli obiettivi della legge e forniscono indicazioni interpretative su ciò che il legislatore intendeva, sono le stesse. Il RAISE Act prende in prestito molte delle definizioni chiave dal SB-53, comprese quelle per rischio catastrofico, incidente di sicurezza critico e modello di base.
Entrambe le leggi applicano i requisiti più rigorosi ai modelli di IA addestrati su più di 1026 FLOPS e alle aziende con ricavi lordi annuali superiori a 500 milioni di dollari nell’anno precedente. Al cuore di entrambe le leggi c’è un insieme identico di requisiti di trasparenza per lo sviluppo dell’IA avanzata. Come il SB-53, il RAISE richiede alle aziende di pubblicare il loro approccio ai test di sicurezza, alla mitigazione dei rischi, alla risposta agli incidenti e ai controlli di cybersicurezza.
Implicazioni e Rischi
La questione principale sollevata dalla nuova legge è se sarà superata da uno sforzo federale per sovrascrivere la regolamentazione statale dell’IA e se tale regola federale seguirà le disposizioni del SB-53 e del RAISE Act o adotterà un approccio diverso e possibilmente più permissivo. Il governo federale ha annunciato sforzi rinnovati per precludere le leggi statali sull’IA attraverso regolamenti federali o azioni congressuali.
Anche se non esiste un’autorità di regolamentazione chiara che possa bloccare la legge, ci sono stati segnali di un consenso iniziale tra gli stati riguardo alla politica sull’IA avanzata. Governatori di entrambi i partiti hanno espresso il desiderio di regolare l’IA e sono stati introdotti progetti di legge focalizzati sulla trasparenza che si sovrappongono al SB-53 in altri stati.
Conclusione
Nonostante il percorso del governo federale verso un quadro unificato rimanga poco chiaro, gli stati potrebbero muoversi verso un consenso iniziale sulla politica dell’IA avanzata. Tuttavia, rimangono domande significative su come il framework “trust but verify” sarà implementato e se gli stati hanno la capacità e la comprensione necessarie per far rispettare queste leggi. La reale applicazione di queste nuove leggi determinerà se i framework di trasparenza e responsabilità creeranno un’effettiva accountability o si riveleranno sforzi puramente simbolici nel guidare l’IA avanzata.