Legge innovativa per la sicurezza dell’IA a New York

New York Introduce una Legge Innovativa sulla Sicurezza dell’IA

Lo stato di New York ha fatto un passo storico diventando il primo negli Stati Uniti a approvare una legge completa sulla sicurezza dell’intelligenza artificiale (IA) che si rivolge ai modelli di IA avanzati. La legge, nota come RAISE Act, stabilisce standard obbligatori di trasparenza e reporting per i principali sviluppatori di IA.

Obiettivi della RAISE Act

Il RAISE Act, acronimo di Responsabile Intelligenza Artificiale nell’Impegno Sociale, mira a prevenire rischi catastrofici richiedendo ai sviluppatori di sistemi di IA potenti di presentare valutazioni dettagliate sulla sicurezza e sulla sicurezza. Queste includono rapporti su potenziali abusi, vulnerabilità tecniche e incidenti legati a comportamenti non sicuri o violazioni dei dati. Le aziende che non rispettano le norme potrebbero affrontare sanzioni civili fino a 30 milioni di dollari.

Un Approccio Mirato

Il senatore dello stato di New York, Andrew Gounardes, uno dei co-sponsor della legge, ha affermato che l’urgenza di legiferare sulla sicurezza dell’IA non è mai stata così grande. “La finestra per implementare guardrail si sta rapidamente riducendo, data la velocità con cui evolvono queste tecnologie,” ha spiegato, citando avvertimenti di esperti di IA di spicco.

Ciò che rende la RAISE Act distinta rispetto ad altri tentativi, come il SB 1047 della California, è il suo approccio mirato. La legge si applica solo alle aziende i cui modelli di IA sono stati addestrati con oltre 100 milioni di dollari in risorse di calcolo e sono resi disponibili ai residenti di New York. Gounardes ha sottolineato che le piccole startup e le istituzioni accademiche non sono l’obiettivo, rispondendo alle critiche secondo cui la legge soffocherebbe l’innovazione.

Resistenza dall’Industria Tecnologica

Nonostante il suo ambito ristretto, la RAISE Act ha incontrato una forte opposizione da parte di investitori e aziende tecnologiche. Anjney Midha, un partner generale di Andreessen Horowitz, ha liquidato la legislazione come “un’altra stupida legge statale sull’IA.” I critici sostengono che l’imposizione di oneri di conformità a livello statale potrebbe spingere le grandi aziende a trattenere i loro prodotti di IA più avanzati dai residenti di New York.

Tuttavia, il membro dell’assemblea Alex Bores, un altro co-sponsor, ha respinto tale possibilità, affermando che l’incentivo economico a rimanere a New York supera di gran lunga i fastidi legati alla conformità.

Un Precedente Nazionale?

Se firmata in legge dal governatore Kathy Hochul, la RAISE Act segnerebbe la prima volta che gli Stati Uniti implementano requisiti di sicurezza e trasparenza legalmente vincolanti specificamente progettati per i sistemi di IA avanzati. Ciò metterebbe New York in una posizione di vantaggio rispetto agli sforzi federali e ad altri stati nella corsa per stabilire standard etici per il dispiegamento dell’IA.

Allo stesso tempo, New York sta esplorando legislazioni parallele che affrontano la discriminazione algoritmica e la protezione dei consumatori. La proposta di legge NY AI Act e la Protection Act mirano a regolare l’uso dell’IA in decisioni significative come l’occupazione e il credito, richiedendo audit, diritti di opt-out e supervisione umana.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...