Nuove Norme per l’Intelligenza Artificiale in New York

Il Progetto di Legge sull’IA Avanzata di New York

New York ha compiuto un passo significativo verso la creazione di standard di trasparenza legale per i sistemi di intelligenza artificiale (IA) avanzata. Il Responsible AI Safety and Education Act (RAISE Act) è stato approvato dalle due camere della legislatura statale nel giugno 2025 e ora è in attesa della firma del governatore Kathy Hochul.

Contesto e Principali Disposizioni

Il RAISE Act si basa sulle lezioni apprese dal fallito SB 1047 della California, che è stato votato contro dal governatore Gavin Newsom nel settembre 2024. Questa legge si applica solo ai sistemi di IA più potenti, escludendo consapevolmente le piccole aziende e le start-up.

Le aziende di IA devono soddisfare i seguenti criteri per essere soggette alla legge:

  • Soglia di Costo di Formazione: I modelli di IA devono essere stati addestrati con oltre $100 milioni in risorse computazionali.
  • Portata Geografica: I modelli devono essere disponibili per i residenti di New York.

Requisiti Fondamentali

Il RAISE Act stabilisce quattro principali obblighi per le aziende coperte:

  1. Protocollo di Sicurezza e Protezione: Le aziende devono pubblicare protocolli di sicurezza e valutazioni dei rischi.
  2. Segnalazione degli Incidenti: Le aziende di IA devono segnalare incidenti di sicurezza, come comportamenti preoccupanti dei modelli di IA.
  3. Valutazione e Mitigazione dei Rischi: Le aziende devono condurre valutazioni approfondite dei rischi per scenari catastrofici.
  4. Audit di Terze Parti: È richiesto un audit di terze parti per garantire la conformità con la legge.

Meccanismi di Applicazione

Le aziende tecnologiche che non rispettano gli standard stabiliti possono essere soggette a penalità civili fino a $30 milioni da parte del procuratore generale di New York.

Caratteristiche Distintive Rispetto al SB 1047 della California

Il RAISE Act affronta specifiche critiche al fallito SB 1047, tra cui:

  • Nessun Requisito di “Kill Switch”: Non richiede ai sviluppatori di IA di includere un “kill switch”.
  • Nessuna Responsabilità Post-Formazione: Non tiene le aziende responsabili per danni critici dopo la formazione dei modelli di IA.
  • Esenzioni Accademiche: Le università e le istituzioni di ricerca sono escluse dalla copertura.
  • Protezione per le Start-Up: La soglia di costo computazionale assicura che le piccole aziende rimangano escluse.

Piano di Conformità Immediata

Le aziende che operano modelli di IA avanzata a New York dovrebbero considerare i seguenti aspetti per la conformità:

  1. Documentazione dei Protocolli di Sicurezza: Sviluppare protocolli completi che possano resistere al controllo pubblico.
  2. Sistemi di Risposta agli Incidenti: Stabilire sistemi robusti per la segnalazione degli incidenti di sicurezza.
  3. Preparazione per gli Audit di Terze Parti: Identificare auditor qualificati e stabilire sistemi documentali pronti per l’audit.
  4. Revisione Legale: Condurre un’analisi legale approfondita delle operazioni attuali in base al nuovo quadro normativo.

Questa analisi si basa su informazioni disponibili pubblicamente a partire da giugno 2025. È importante monitorare gli sviluppi e consultare la legislazione attuale per i requisiti più aggiornati.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...