Legislatori di New York: Nuove Regole per un AI Sicuro

Legislatori di New York vogliono evitare “danni critici” causati dall’IA

I legislatori dello stato di New York intendono imporre nuovi requisiti di sicurezza per i modelli di intelligenza artificiale (IA) più avanzati al mondo, ma i legislatori federali minacciano di sovvertire le nuove regole prima che possano essere implementate.

Il progetto di legge RAISE

La scorsa settimana, la legislatura statale ha approvato un progetto di legge che richiederebbe ai sviluppatori dei più grandi modelli di IA all’avanguardia di elaborare piani di sicurezza completi che descrivano i passaggi intrapresi per ridurre il rischio di causare danni gravi.

Il provvedimento, noto come Responsible AI Safety and Education (RAISE), richiederebbe anche ai sviluppatori di informare lo stato riguardo a incidenti di sicurezza significativi, come un modello che agisce autonomamente senza che un utente lo solleciti. Il progetto di legge renderebbe i sviluppatori responsabili per determinate violazioni della legge, aprendo la strada al procuratore generale dello stato per richiedere multe civili dell’ordine di decine di milioni di dollari.

Opposizione e sostegno al progetto di legge

Le aziende tecnologiche e le loro organizzazioni commerciali stanno già facendo pressione sul governatore Kathy Hochul affinché veti il provvedimento, sostenendo che questo soffocherebbe l’innovazione in un campo trasformativo. Nel frattempo, i sostenitori del progetto di legge esortano Hochul a firmarlo, affermando che il governo federale non sta procedendo abbastanza rapidamente per regolare un’industria dell’IA in rapida evoluzione che ha un enorme potenziale di cambiamento.

“Credo che in molti modi la politica sull’IA dovrebbe essere a livello federale, ma i federali stanno procedendo lentamente e non hanno fatto nulla in merito,” ha affermato l’assembleista Alex Bores, un democratico di Manhattan. “La bellezza del sistema federale è che possiamo consentire agli stati di sperimentare per provare nuove cose.”

Dettagli del progetto di legge

Il progetto di legge si applicherà ai sviluppatori di modelli di IA definiti fronteira, la tecnologia più grande e all’avanguardia nel campo, che sono sviluppati, distribuiti o destinati a operare a New York.

I sviluppatori saranno tenuti a implementare i loro protocolli di sicurezza prima della distribuzione. Saranno soggetti a una revisione da parte di terzi e dovranno essere resi disponibili al Dipartimento della Sicurezza Nazionale e dei Servizi di Emergenza dello stato, nonché all’Ufficio del Procuratore Generale dello stato.

Prevenzione di danni critici

Il progetto di legge stabilisce che i protocolli di sicurezza siano progettati per ridurre la possibilità di danni critici, incidenti che sono “causati o materialmente abilitati” dal modello di IA dello sviluppatore e che comportano 100 o più feriti o morti o più di 1 miliardo di dollari di danni. Richiede ai sviluppatori di considerare la possibilità che l’IA porti alla creazione di armi chimiche, biologiche o addirittura nucleari.

Il procuratore generale sarà in grado di richiedere multe fino a 10 milioni di dollari per la prima violazione e fino a 30 milioni di dollari per ogni violazione successiva.

Situazione attuale e prospettive future

I legislatori della California hanno già tentato in passato di regolare i sviluppatori di IA in modo simile, ma il provvedimento ha affrontato un’opposizione significativa e il governatore Gavin Newsom lo ha infine vetato.

Tech:NYC, un gruppo commerciale che include Google e Meta, si oppone al progetto di legge RAISE. Julie Samuels, presidente e CEO di Tech:NYC, ha affermato che la sua organizzazione non è contraria alla regolamentazione statale, ma preferirebbe uno standard nazionale. Tuttavia, il gruppo sostiene che la regolamentazione dovrebbe basarsi su usi specifici piuttosto che sull’approccio generale del progetto di legge RAISE.

Hochul è stata un grande sostenitore dell’iniziativa Empire AI, un consorzio pubblico-privato dedicato alla ricerca e allo sviluppo dell’intelligenza artificiale. All’inizio di quest’anno, lei e i legislatori statali hanno approvato misure per regolare i compagni di IA, le app e i personaggi che forniscono supporto emotivo alle persone.

Nel frattempo, il Congresso continua a dibattere se dovrebbe temporaneamente vietare agli stati di regolare l’IA. La Camera dei Rappresentanti ha approvato un moratorium di 10 anni su tale regolamentazione statale come parte di un ampio progetto di legge fiscale del presidente Donald Trump. Il Senato non ha ancora votato sulla sua versione del progetto di legge, ma una commissione ha inserito una lingua che ha ammorbidito la disposizione, consentendo effettivamente agli stati di regolare l’IA se sono disposti a rinunciare ai fondi federali per la banda larga.

Se questa proibizione federale rimane in riconciliazione, l’impatto non è semplicemente un moratorium burocratico; mina il diritto fondamentale e la responsabilità degli stati di proteggere la sicurezza, la salute, la privacy e la vitalità economica dei suoi cittadini.

More Insights

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Sicurezza: Affrontare la Nuova Era delle Minacce

Le organizzazioni devono affrontare una nuova realtà: l'IA sta rapidamente rimodellando il panorama delle minacce informatiche. Mentre l'IA aiuta a migliorare la rilevazione e la risposta, porta anche...

Governare l’Intelligenza Artificiale: Verso un Futuro Sostenibile

La Thailandia ha redatto principi per la legislazione sull'intelligenza artificiale (AI), mirando a stabilire un ecosistema AI e ad ampliare l'adozione. La nuova legge dovrebbe fornire protezione agli...

Leggi Texane per una Governance Responsabile dell’Intelligenza Artificiale in Sanità

Il Texas ha adottato leggi complete sulla governance dell'intelligenza artificiale con disposizioni specifiche per il settore sanitario, inclusa la legge HB 149. Questa legge stabilisce un quadro per...

Intelligenza Artificiale: Garanzia di Allineamento e Governance

Gillian K. Hadfield è stata nominata Professore Distinto Bloomberg di Allineamento e Governance dell'IA presso la Johns Hopkins University. È riconosciuta a livello internazionale per la sua ricerca...

Il lato oscuro della pornografia con cambio di volto

Con l'evoluzione della tecnologia AI, gli strumenti di face swap vengono sempre più sfruttati in modo dannoso, in particolare nella pornografia con scambi di volto. Questo articolo esplora le...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Governanza Etica e Inclusiva dell’AI in Indonesia

Il Ministero della Comunicazione e del Digitale dell'Indonesia ha ribadito il proprio impegno a integrare principi etici e di inclusione nelle proprie politiche sull'intelligenza artificiale (AI). Il...