Il Progetto di Legge sull’IA Avanzata di New York
New York ha compiuto un passo significativo verso la creazione di standard di trasparenza legale per i sistemi di intelligenza artificiale (IA) avanzata. Il Responsible AI Safety and Education Act (RAISE Act) è stato approvato dalle due camere della legislatura statale nel giugno 2025 e ora è in attesa della firma del governatore Kathy Hochul.
Contesto e Principali Disposizioni
Il RAISE Act si basa sulle lezioni apprese dal fallito SB 1047 della California, che è stato votato contro dal governatore Gavin Newsom nel settembre 2024. Questa legge si applica solo ai sistemi di IA più potenti, escludendo consapevolmente le piccole aziende e le start-up.
Le aziende di IA devono soddisfare i seguenti criteri per essere soggette alla legge:
- Soglia di Costo di Formazione: I modelli di IA devono essere stati addestrati con oltre $100 milioni in risorse computazionali.
- Portata Geografica: I modelli devono essere disponibili per i residenti di New York.
Requisiti Fondamentali
Il RAISE Act stabilisce quattro principali obblighi per le aziende coperte:
- Protocollo di Sicurezza e Protezione: Le aziende devono pubblicare protocolli di sicurezza e valutazioni dei rischi.
- Segnalazione degli Incidenti: Le aziende di IA devono segnalare incidenti di sicurezza, come comportamenti preoccupanti dei modelli di IA.
- Valutazione e Mitigazione dei Rischi: Le aziende devono condurre valutazioni approfondite dei rischi per scenari catastrofici.
- Audit di Terze Parti: È richiesto un audit di terze parti per garantire la conformità con la legge.
Meccanismi di Applicazione
Le aziende tecnologiche che non rispettano gli standard stabiliti possono essere soggette a penalità civili fino a $30 milioni da parte del procuratore generale di New York.
Caratteristiche Distintive Rispetto al SB 1047 della California
Il RAISE Act affronta specifiche critiche al fallito SB 1047, tra cui:
- Nessun Requisito di “Kill Switch”: Non richiede ai sviluppatori di IA di includere un “kill switch”.
- Nessuna Responsabilità Post-Formazione: Non tiene le aziende responsabili per danni critici dopo la formazione dei modelli di IA.
- Esenzioni Accademiche: Le università e le istituzioni di ricerca sono escluse dalla copertura.
- Protezione per le Start-Up: La soglia di costo computazionale assicura che le piccole aziende rimangano escluse.
Piano di Conformità Immediata
Le aziende che operano modelli di IA avanzata a New York dovrebbero considerare i seguenti aspetti per la conformità:
- Documentazione dei Protocolli di Sicurezza: Sviluppare protocolli completi che possano resistere al controllo pubblico.
- Sistemi di Risposta agli Incidenti: Stabilire sistemi robusti per la segnalazione degli incidenti di sicurezza.
- Preparazione per gli Audit di Terze Parti: Identificare auditor qualificati e stabilire sistemi documentali pronti per l’audit.
- Revisione Legale: Condurre un’analisi legale approfondita delle operazioni attuali in base al nuovo quadro normativo.
Questa analisi si basa su informazioni disponibili pubblicamente a partire da giugno 2025. È importante monitorare gli sviluppi e consultare la legislazione attuale per i requisiti più aggiornati.