Legislatori di New York: Nuove Regole per un AI Sicuro

Legislatori di New York vogliono evitare “danni critici” causati dall’IA

I legislatori dello stato di New York intendono imporre nuovi requisiti di sicurezza per i modelli di intelligenza artificiale (IA) più avanzati al mondo, ma i legislatori federali minacciano di sovvertire le nuove regole prima che possano essere implementate.

Il progetto di legge RAISE

La scorsa settimana, la legislatura statale ha approvato un progetto di legge che richiederebbe ai sviluppatori dei più grandi modelli di IA all’avanguardia di elaborare piani di sicurezza completi che descrivano i passaggi intrapresi per ridurre il rischio di causare danni gravi.

Il provvedimento, noto come Responsible AI Safety and Education (RAISE), richiederebbe anche ai sviluppatori di informare lo stato riguardo a incidenti di sicurezza significativi, come un modello che agisce autonomamente senza che un utente lo solleciti. Il progetto di legge renderebbe i sviluppatori responsabili per determinate violazioni della legge, aprendo la strada al procuratore generale dello stato per richiedere multe civili dell’ordine di decine di milioni di dollari.

Opposizione e sostegno al progetto di legge

Le aziende tecnologiche e le loro organizzazioni commerciali stanno già facendo pressione sul governatore Kathy Hochul affinché veti il provvedimento, sostenendo che questo soffocherebbe l’innovazione in un campo trasformativo. Nel frattempo, i sostenitori del progetto di legge esortano Hochul a firmarlo, affermando che il governo federale non sta procedendo abbastanza rapidamente per regolare un’industria dell’IA in rapida evoluzione che ha un enorme potenziale di cambiamento.

“Credo che in molti modi la politica sull’IA dovrebbe essere a livello federale, ma i federali stanno procedendo lentamente e non hanno fatto nulla in merito,” ha affermato l’assembleista Alex Bores, un democratico di Manhattan. “La bellezza del sistema federale è che possiamo consentire agli stati di sperimentare per provare nuove cose.”

Dettagli del progetto di legge

Il progetto di legge si applicherà ai sviluppatori di modelli di IA definiti fronteira, la tecnologia più grande e all’avanguardia nel campo, che sono sviluppati, distribuiti o destinati a operare a New York.

I sviluppatori saranno tenuti a implementare i loro protocolli di sicurezza prima della distribuzione. Saranno soggetti a una revisione da parte di terzi e dovranno essere resi disponibili al Dipartimento della Sicurezza Nazionale e dei Servizi di Emergenza dello stato, nonché all’Ufficio del Procuratore Generale dello stato.

Prevenzione di danni critici

Il progetto di legge stabilisce che i protocolli di sicurezza siano progettati per ridurre la possibilità di danni critici, incidenti che sono “causati o materialmente abilitati” dal modello di IA dello sviluppatore e che comportano 100 o più feriti o morti o più di 1 miliardo di dollari di danni. Richiede ai sviluppatori di considerare la possibilità che l’IA porti alla creazione di armi chimiche, biologiche o addirittura nucleari.

Il procuratore generale sarà in grado di richiedere multe fino a 10 milioni di dollari per la prima violazione e fino a 30 milioni di dollari per ogni violazione successiva.

Situazione attuale e prospettive future

I legislatori della California hanno già tentato in passato di regolare i sviluppatori di IA in modo simile, ma il provvedimento ha affrontato un’opposizione significativa e il governatore Gavin Newsom lo ha infine vetato.

Tech:NYC, un gruppo commerciale che include Google e Meta, si oppone al progetto di legge RAISE. Julie Samuels, presidente e CEO di Tech:NYC, ha affermato che la sua organizzazione non è contraria alla regolamentazione statale, ma preferirebbe uno standard nazionale. Tuttavia, il gruppo sostiene che la regolamentazione dovrebbe basarsi su usi specifici piuttosto che sull’approccio generale del progetto di legge RAISE.

Hochul è stata un grande sostenitore dell’iniziativa Empire AI, un consorzio pubblico-privato dedicato alla ricerca e allo sviluppo dell’intelligenza artificiale. All’inizio di quest’anno, lei e i legislatori statali hanno approvato misure per regolare i compagni di IA, le app e i personaggi che forniscono supporto emotivo alle persone.

Nel frattempo, il Congresso continua a dibattere se dovrebbe temporaneamente vietare agli stati di regolare l’IA. La Camera dei Rappresentanti ha approvato un moratorium di 10 anni su tale regolamentazione statale come parte di un ampio progetto di legge fiscale del presidente Donald Trump. Il Senato non ha ancora votato sulla sua versione del progetto di legge, ma una commissione ha inserito una lingua che ha ammorbidito la disposizione, consentendo effettivamente agli stati di regolare l’IA se sono disposti a rinunciare ai fondi federali per la banda larga.

Se questa proibizione federale rimane in riconciliazione, l’impatto non è semplicemente un moratorium burocratico; mina il diritto fondamentale e la responsabilità degli stati di proteggere la sicurezza, la salute, la privacy e la vitalità economica dei suoi cittadini.

More Insights

Regolamentazione dell’IA: Politiche di frammentazione e cattura

La nuova ricerca esplora come il comportamento strategico dei governi, delle aziende tecnologiche e di altri agenti plasmi l'economia politica della regolamentazione dell'intelligenza artificiale. In...

Dubai Cultura: Eccellenza nell’Intelligenza Artificiale

L'Autorità della Cultura e delle Arti di Dubai è stata premiata come vincitrice del Miglior Quadro di Governance dell'IA del 2025 durante il GovTech Innovation Forum & Awards. Questo riconoscimento...

Fiducia nell’AI: Soluzioni di Traffico Sicure per il Futuro

L'intelligenza artificiale sta diventando una parte centrale delle infrastrutture moderne, rendendo la sicurezza, la trasparenza e la responsabilità più critiche che mai. FLIR ha sviluppato un modello...

Nuove pressioni per regolamentare l’IA a livello nazionale

La proposta controversa di bloccare la regolamentazione a livello statale dell'intelligenza artificiale è fallita, aumentando la pressione per un'azione federale. Più di 20 stati, sia democratici che...

Legge Innovativa per la Governance dell’Intelligenza Artificiale nelle Filippine

Il rappresentante Brian Poe ha introdotto il Philippine Artificial Intelligence Governance Act, che mira a stabilire linee guida e regolamenti per l'uso sicuro ed efficace dell'intelligenza...

L’Ascesa dell’IA Generativa nella Certificazione di Rischio e Conformità

Nel 2025, le organizzazioni di tutto il mondo si trovano ad affrontare paesaggi normativi in continua espansione e preoccupazioni per la privacy dei dati. L'AI generativa sta emergendo come un partner...

Il colpo di Grok: Rischi normativi per la tecnologia globale

L'incidente di luglio 2025 che coinvolge l'indagine della Turchia su Grok, lo strumento di intelligenza artificiale integrato in X, segna un momento cruciale per le aziende tecnologiche globali...

Il colpo di Grok: Rischi normativi per la tecnologia globale

L'incidente di luglio 2025 che coinvolge l'indagine della Turchia su Grok, lo strumento di intelligenza artificiale integrato in X, segna un momento cruciale per le aziende tecnologiche globali...

Intelligenza Artificiale Responsabile: Pronti per il Futuro Normativo

L'intelligenza artificiale e le normative stanno avanzando rapidamente, portando a richieste di conformità complesse e in continua evoluzione a livello globale, nazionale e locale. L'adozione di...