Nuove Normative per l’Intelligenza Artificiale: Il RAISE Act di New York

Dal Trasparente al Monitoraggio: La Legge RAISE di New York Alza il Livello per gli Sviluppatori di AI Avanzata

Il 19 dicembre 2025, il Governatore di New York ha firmato la Legge A6453-A, il Responsible AI Safety and Education Act (Legge RAISE). Questa legge stabilisce un quadro normativo mirato che governa lo sviluppo e il dispiegamento dei modelli di intelligenza artificiale “frontier”, con un focus sulla sicurezza, trasparenza, prevenzione e segnalazione di incidenti che comportano danni catastrofici.

La Legge RAISE non prevede una fase di attuazione graduale delle obbligazioni. Invece, la legge diventa pienamente efficace il 1° luglio 2027, con alcuni requisiti che operano su base continuativa o annuale una volta in vigore.

Obblighi e Requisiti

La Legge RAISE impone obblighi affermativi di sicurezza, documentazione, audit e segnalazione di incidenti ai grandi sviluppatori di modelli di AI avanzati, sotto l’applicazione del Procuratore Generale di New York. Non regola i dispiegatori di AI o gli utenti comuni come una classe separata.

La legge richiede agli sviluppatori di adottare, implementare e mantenere un protocollo di sicurezza e protezione per l’AI, documentando procedure di test, risultati e salvaguardie utilizzate per valutare e mitigare il rischio di danni critici. Questi materiali devono essere conservati in dettaglio sufficiente per supportare una revisione normativa e audit indipendenti.

Inoltre, la Legge RAISE richiede un audit annuale di terze parti indipendente per la conformità ai requisiti di sicurezza e protezione, con un rapporto redatto reso pubblico e materiali non redatti conservati per la revisione governativa.

Tempistiche di Segnalazione

Gli sviluppatori devono segnalare incidenti di sicurezza qualificati allo Stato entro 72 ore dalla conoscenza dell’incidente. Un incidente di sicurezza è un evento che fornisce prove dimostrabili di un aumento del rischio di danno critico.

Confronto con la Legge della California

La Legge RAISE si distingue dalla Legge della California per il fatto che impone protocolli di sicurezza e audit annuali, con una tempistica di segnalazione degli incidenti più breve. Mentre la Legge della California enfatizza report di trasparenza standardizzati, la Legge RAISE richiede un approccio più prescrittivo.

Implicazioni e Rischi

Per le organizzazioni che sviluppano o modificano modelli di AI altamente capaci, la Legge RAISE rappresenta un’escalation significativa rispetto alla Legge della California, anche se si applica a un gruppo più ristretto di sviluppatori. Le aziende dovrebbero pianificare un periodo in cui le obbligazioni di conformità statale rimangono in vigore mentre vengono testate teorie di allineamento e preemption federali.

Conclusione

La Legge RAISE rappresenta un importante passo avanti nella regolamentazione dell’intelligenza artificiale, imponendo requisiti più severi ai grandi sviluppatori e creando un’infrastruttura di monitoraggio dedicata. Le aziende devono prepararsi a queste nuove sfide, armonizzando le loro pratiche di governance interna per soddisfare sia le esigenze della Legge della California sia quelle della Legge RAISE.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...