Leggi il futuro: New York e la sicurezza dell’IA

New York approva una legge per prevenire disastri alimentati dall’IA

Il legislativo dello stato di New York ha approvato una legge giovedì che mira a prevenire modelli di IA all’avanguardia da OpenAI, Google e Anthropic dal contribuire a scenari di disastro, inclusi la morte o il ferimento di oltre 100 persone, o danni superiori a 1 miliardo di dollari.

Il passaggio del RAISE Act rappresenta una vittoria per il movimento per la sicurezza dell’IA, che ha perso terreno negli ultimi anni mentre la Silicon Valley e l’amministrazione Trump hanno dato priorità alla velocità e all’innovazione. Difensori della sicurezza come il premio Nobel Geoffrey Hinton e il pioniere della ricerca sull’IA Yoshua Bengio hanno sostenuto il RAISE Act.

Obiettivi e Provisions della Legge

Se diventa legge, il RAISE Act stabilirebbe il primo insieme di standard di trasparenza legalmente vincolanti per i laboratori di IA all’avanguardia negli Stati Uniti. La legge richiederebbe ai più grandi laboratori di IA del mondo di pubblicare rapporti di sicurezza e protezione dettagliati sui loro modelli di IA all’avanguardia.

Inoltre, i laboratori di IA sarebbero tenuti a segnalare incidenti di sicurezza, come comportamenti preoccupanti del modello di IA o attori malintenzionati che rubano un modello di IA. Se le aziende tecnologiche non rispettano questi standard, il RAISE Act darebbe al procuratore generale di New York il potere di imporre penalità civili fino a 30 milioni di dollari.

Critiche e Risposte

Il RAISE Act mira a regolamentare in modo mirato le più grandi aziende del mondo, che siano basate in California (come OpenAI e Google) o in Cina (come DeepSeek e Alibaba). I requisiti di trasparenza si applicano a quelle aziende i cui modelli di IA sono stati addestrati utilizzando oltre 100 milioni di dollari in risorse di calcolo e sono resi disponibili ai residenti di New York.

Tuttavia, la Silicon Valley ha opposto una resistenza significativa alla legge sulla sicurezza dell’IA di New York. Alcuni membri dell’assemblea e co-sponsor del RAISE Act hanno affermato che l’opposizione dell’industria era prevedibile, ma hanno sostenuto che il RAISE Act non limiterebbe l’innovazione delle aziende tecnologiche.

Critiche comuni al RAISE Act includono la preoccupazione che gli sviluppatori di modelli di IA semplicemente non offrirebbero i loro modelli più avanzati nello stato di New York. Questa critica è simile a quella avanzata contro la legge SB 1047 della California e si è in gran parte verificata in Europa a causa delle severe normative della regione.

Conclusione

In sintesi, il RAISE Act di New York rappresenta un tentativo significativo di affrontare le preoccupazioni relative alla sicurezza dell’IA, pur cercando di non soffocare l’innovazione. Con la crescente evoluzione della tecnologia, la necessità di guardrail e regolamenti chiari è più urgente che mai.

More Insights

L’Ascesa dell’IA Generativa nella Certificazione di Rischio e Conformità

Nel 2025, le organizzazioni di tutto il mondo si trovano ad affrontare paesaggi normativi in continua espansione e preoccupazioni per la privacy dei dati. L'AI generativa sta emergendo come un partner...

AI Generativa e Sostenibilità: Ridurre le Emissioni di Carbonio

L'IA generativa sta trasformando le industrie, ma comporta costi nascosti: le emissioni di carbonio. Con la crescente domanda di modelli su larga scala, è fondamentale sviluppare strategie che...

Regolamentazione dell’Intelligenza Artificiale: Opportunità e Rischi

Gli esperti esaminano i benefici e i rischi della regolamentazione dell'intelligenza artificiale (IA). Recentemente, la Camera dei Rappresentanti degli Stati Uniti ha approvato un progetto di legge...

Governanza Globale dell’IA in India

Questo articolo analizza le leggi, le politiche e la storia contestuale più ampia relative alla governance dell'IA in India. La trasformazione digitale del paese ha alimentato l'adozione dell'IA...

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

L’intelligenza artificiale come co-pilota del governo

La UAE ha annunciato che un Sistema Nazionale di Intelligenza Artificiale diventerà un membro non votante di tutte le federazioni e delle aziende governative, iniziando il prossimo anno. Questa...

Codice di condotta per le aziende: prepararsi alle nuove regole sull’IA

Un codice di condotta progettato per aiutare le aziende a conformarsi alle norme sull'intelligenza artificiale dell'Unione Europea potrebbe entrare in vigore solo alla fine del 2025. La Commissione...

Crisi dell’Intelligenza Artificiale: Il Fallimento delle Aziende

L'intelligenza artificiale ha raggiunto un punto di svolta, ma la maggior parte delle iniziative AI non arriva mai alla produzione, esponendo le organizzazioni a rischi invisibili. Senza un'adeguata...

Periodo di grazia per la conformità all’AI Code

La commissione sta considerando di offrire un periodo di grazia alle aziende che firmano il codice di conformità sull'IA. Questa decisione potrebbe influenzare notevolmente le pratiche aziendali nel...