Legislatori di New York: Nuove Regole per un AI Sicuro

Legislatori di New York vogliono evitare “danni critici” causati dall’IA

I legislatori dello stato di New York intendono imporre nuovi requisiti di sicurezza per i modelli di intelligenza artificiale (IA) più avanzati al mondo, ma i legislatori federali minacciano di sovvertire le nuove regole prima che possano essere implementate.

Il progetto di legge RAISE

La scorsa settimana, la legislatura statale ha approvato un progetto di legge che richiederebbe ai sviluppatori dei più grandi modelli di IA all’avanguardia di elaborare piani di sicurezza completi che descrivano i passaggi intrapresi per ridurre il rischio di causare danni gravi.

Il provvedimento, noto come Responsible AI Safety and Education (RAISE), richiederebbe anche ai sviluppatori di informare lo stato riguardo a incidenti di sicurezza significativi, come un modello che agisce autonomamente senza che un utente lo solleciti. Il progetto di legge renderebbe i sviluppatori responsabili per determinate violazioni della legge, aprendo la strada al procuratore generale dello stato per richiedere multe civili dell’ordine di decine di milioni di dollari.

Opposizione e sostegno al progetto di legge

Le aziende tecnologiche e le loro organizzazioni commerciali stanno già facendo pressione sul governatore Kathy Hochul affinché veti il provvedimento, sostenendo che questo soffocherebbe l’innovazione in un campo trasformativo. Nel frattempo, i sostenitori del progetto di legge esortano Hochul a firmarlo, affermando che il governo federale non sta procedendo abbastanza rapidamente per regolare un’industria dell’IA in rapida evoluzione che ha un enorme potenziale di cambiamento.

“Credo che in molti modi la politica sull’IA dovrebbe essere a livello federale, ma i federali stanno procedendo lentamente e non hanno fatto nulla in merito,” ha affermato l’assembleista Alex Bores, un democratico di Manhattan. “La bellezza del sistema federale è che possiamo consentire agli stati di sperimentare per provare nuove cose.”

Dettagli del progetto di legge

Il progetto di legge si applicherà ai sviluppatori di modelli di IA definiti fronteira, la tecnologia più grande e all’avanguardia nel campo, che sono sviluppati, distribuiti o destinati a operare a New York.

I sviluppatori saranno tenuti a implementare i loro protocolli di sicurezza prima della distribuzione. Saranno soggetti a una revisione da parte di terzi e dovranno essere resi disponibili al Dipartimento della Sicurezza Nazionale e dei Servizi di Emergenza dello stato, nonché all’Ufficio del Procuratore Generale dello stato.

Prevenzione di danni critici

Il progetto di legge stabilisce che i protocolli di sicurezza siano progettati per ridurre la possibilità di danni critici, incidenti che sono “causati o materialmente abilitati” dal modello di IA dello sviluppatore e che comportano 100 o più feriti o morti o più di 1 miliardo di dollari di danni. Richiede ai sviluppatori di considerare la possibilità che l’IA porti alla creazione di armi chimiche, biologiche o addirittura nucleari.

Il procuratore generale sarà in grado di richiedere multe fino a 10 milioni di dollari per la prima violazione e fino a 30 milioni di dollari per ogni violazione successiva.

Situazione attuale e prospettive future

I legislatori della California hanno già tentato in passato di regolare i sviluppatori di IA in modo simile, ma il provvedimento ha affrontato un’opposizione significativa e il governatore Gavin Newsom lo ha infine vetato.

Tech:NYC, un gruppo commerciale che include Google e Meta, si oppone al progetto di legge RAISE. Julie Samuels, presidente e CEO di Tech:NYC, ha affermato che la sua organizzazione non è contraria alla regolamentazione statale, ma preferirebbe uno standard nazionale. Tuttavia, il gruppo sostiene che la regolamentazione dovrebbe basarsi su usi specifici piuttosto che sull’approccio generale del progetto di legge RAISE.

Hochul è stata un grande sostenitore dell’iniziativa Empire AI, un consorzio pubblico-privato dedicato alla ricerca e allo sviluppo dell’intelligenza artificiale. All’inizio di quest’anno, lei e i legislatori statali hanno approvato misure per regolare i compagni di IA, le app e i personaggi che forniscono supporto emotivo alle persone.

Nel frattempo, il Congresso continua a dibattere se dovrebbe temporaneamente vietare agli stati di regolare l’IA. La Camera dei Rappresentanti ha approvato un moratorium di 10 anni su tale regolamentazione statale come parte di un ampio progetto di legge fiscale del presidente Donald Trump. Il Senato non ha ancora votato sulla sua versione del progetto di legge, ma una commissione ha inserito una lingua che ha ammorbidito la disposizione, consentendo effettivamente agli stati di regolare l’IA se sono disposti a rinunciare ai fondi federali per la banda larga.

Se questa proibizione federale rimane in riconciliazione, l’impatto non è semplicemente un moratorium burocratico; mina il diritto fondamentale e la responsabilità degli stati di proteggere la sicurezza, la salute, la privacy e la vitalità economica dei suoi cittadini.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...