Nuove Norme per l’Intelligenza Artificiale in New York

Il Progetto di Legge sull’IA Avanzata di New York

New York ha compiuto un passo significativo verso la creazione di standard di trasparenza legale per i sistemi di intelligenza artificiale (IA) avanzata. Il Responsible AI Safety and Education Act (RAISE Act) è stato approvato dalle due camere della legislatura statale nel giugno 2025 e ora è in attesa della firma del governatore Kathy Hochul.

Contesto e Principali Disposizioni

Il RAISE Act si basa sulle lezioni apprese dal fallito SB 1047 della California, che è stato votato contro dal governatore Gavin Newsom nel settembre 2024. Questa legge si applica solo ai sistemi di IA più potenti, escludendo consapevolmente le piccole aziende e le start-up.

Le aziende di IA devono soddisfare i seguenti criteri per essere soggette alla legge:

  • Soglia di Costo di Formazione: I modelli di IA devono essere stati addestrati con oltre $100 milioni in risorse computazionali.
  • Portata Geografica: I modelli devono essere disponibili per i residenti di New York.

Requisiti Fondamentali

Il RAISE Act stabilisce quattro principali obblighi per le aziende coperte:

  1. Protocollo di Sicurezza e Protezione: Le aziende devono pubblicare protocolli di sicurezza e valutazioni dei rischi.
  2. Segnalazione degli Incidenti: Le aziende di IA devono segnalare incidenti di sicurezza, come comportamenti preoccupanti dei modelli di IA.
  3. Valutazione e Mitigazione dei Rischi: Le aziende devono condurre valutazioni approfondite dei rischi per scenari catastrofici.
  4. Audit di Terze Parti: È richiesto un audit di terze parti per garantire la conformità con la legge.

Meccanismi di Applicazione

Le aziende tecnologiche che non rispettano gli standard stabiliti possono essere soggette a penalità civili fino a $30 milioni da parte del procuratore generale di New York.

Caratteristiche Distintive Rispetto al SB 1047 della California

Il RAISE Act affronta specifiche critiche al fallito SB 1047, tra cui:

  • Nessun Requisito di “Kill Switch”: Non richiede ai sviluppatori di IA di includere un “kill switch”.
  • Nessuna Responsabilità Post-Formazione: Non tiene le aziende responsabili per danni critici dopo la formazione dei modelli di IA.
  • Esenzioni Accademiche: Le università e le istituzioni di ricerca sono escluse dalla copertura.
  • Protezione per le Start-Up: La soglia di costo computazionale assicura che le piccole aziende rimangano escluse.

Piano di Conformità Immediata

Le aziende che operano modelli di IA avanzata a New York dovrebbero considerare i seguenti aspetti per la conformità:

  1. Documentazione dei Protocolli di Sicurezza: Sviluppare protocolli completi che possano resistere al controllo pubblico.
  2. Sistemi di Risposta agli Incidenti: Stabilire sistemi robusti per la segnalazione degli incidenti di sicurezza.
  3. Preparazione per gli Audit di Terze Parti: Identificare auditor qualificati e stabilire sistemi documentali pronti per l’audit.
  4. Revisione Legale: Condurre un’analisi legale approfondita delle operazioni attuali in base al nuovo quadro normativo.

Questa analisi si basa su informazioni disponibili pubblicamente a partire da giugno 2025. È importante monitorare gli sviluppi e consultare la legislazione attuale per i requisiti più aggiornati.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...