Dal Trasparente al Monitoraggio: La Legge RAISE di New York Alza il Livello per gli Sviluppatori di AI Avanzata
Il 19 dicembre 2025, il Governatore di New York ha firmato la Legge A6453-A, il Responsible AI Safety and Education Act (Legge RAISE). Questa legge stabilisce un quadro normativo mirato che governa lo sviluppo e il dispiegamento dei modelli di intelligenza artificiale “frontier”, con un focus sulla sicurezza, trasparenza, prevenzione e segnalazione di incidenti che comportano danni catastrofici.
La Legge RAISE non prevede una fase di attuazione graduale delle obbligazioni. Invece, la legge diventa pienamente efficace il 1° luglio 2027, con alcuni requisiti che operano su base continuativa o annuale una volta in vigore.
Obblighi e Requisiti
La Legge RAISE impone obblighi affermativi di sicurezza, documentazione, audit e segnalazione di incidenti ai grandi sviluppatori di modelli di AI avanzati, sotto l’applicazione del Procuratore Generale di New York. Non regola i dispiegatori di AI o gli utenti comuni come una classe separata.
La legge richiede agli sviluppatori di adottare, implementare e mantenere un protocollo di sicurezza e protezione per l’AI, documentando procedure di test, risultati e salvaguardie utilizzate per valutare e mitigare il rischio di danni critici. Questi materiali devono essere conservati in dettaglio sufficiente per supportare una revisione normativa e audit indipendenti.
Inoltre, la Legge RAISE richiede un audit annuale di terze parti indipendente per la conformità ai requisiti di sicurezza e protezione, con un rapporto redatto reso pubblico e materiali non redatti conservati per la revisione governativa.
Tempistiche di Segnalazione
Gli sviluppatori devono segnalare incidenti di sicurezza qualificati allo Stato entro 72 ore dalla conoscenza dell’incidente. Un incidente di sicurezza è un evento che fornisce prove dimostrabili di un aumento del rischio di danno critico.
Confronto con la Legge della California
La Legge RAISE si distingue dalla Legge della California per il fatto che impone protocolli di sicurezza e audit annuali, con una tempistica di segnalazione degli incidenti più breve. Mentre la Legge della California enfatizza report di trasparenza standardizzati, la Legge RAISE richiede un approccio più prescrittivo.
Implicazioni e Rischi
Per le organizzazioni che sviluppano o modificano modelli di AI altamente capaci, la Legge RAISE rappresenta un’escalation significativa rispetto alla Legge della California, anche se si applica a un gruppo più ristretto di sviluppatori. Le aziende dovrebbero pianificare un periodo in cui le obbligazioni di conformità statale rimangono in vigore mentre vengono testate teorie di allineamento e preemption federali.
Conclusione
La Legge RAISE rappresenta un importante passo avanti nella regolamentazione dell’intelligenza artificiale, imponendo requisiti più severi ai grandi sviluppatori e creando un’infrastruttura di monitoraggio dedicata. Le aziende devono prepararsi a queste nuove sfide, armonizzando le loro pratiche di governance interna per soddisfare sia le esigenze della Legge della California sia quelle della Legge RAISE.