Rischi di Sicurezza dell’Intelligenza Artificiale: Il Fallimento del RAISE Act di New York

Il RAISE Act di New York e i Rischi per la Sicurezza dell’IA

Il Responsible AI Safety and Education (RAISE) Act dello Stato di New York ha come obiettivo quello di proteggere le persone dai danni causati dall’IA. Tuttavia, assumere che i modelli di IA siano il punto chiave per garantire la sicurezza potrebbe trasformare una sfida tecnica in un onere burocratico.

Obiettivi e requisiti del RAISE Act

Il RAISE Act, redatto dal membro dell’Assemblea Statale Alex Bores, applica una serie di requisiti mirati a garantire che le tecnologie IA vengano implementate e utilizzate in modo responsabile. Attualmente è in fase di discussione in commissione.

Bores e altri legislatori sono preoccupati che l’IA avanzata possa contribuire alla creazione di armi chimiche, biologiche e nucleari. Tuttavia, i veri rischi risiedono nell’accessibilità di materiali precursori pericolosi, non nei sistemi di IA stessi.

Requisiti per gli sviluppatori di modelli

I sviluppatori di modelli coperti dal RAISE devono seguire una serie di regole, tra cui:

  • Procedure di test obbligatorie e strategie di mitigazione dei rischi;
  • Audits regolari da parte di terzi;
  • Requisiti di trasparenza;
  • Segnalazione di incidenti pericolosi;
  • Registrazione dettagliata dei test per cinque anni;
  • Revisioni annuali dei protocolli;
  • Divieto di implementare modelli “irragionevolmente” rischiosi.

Tutte queste disposizioni sono supportate da sanzioni significative per le violazioni, che partono dal 5% dei costi di calcolo per una prima violazione e possono arrivare fino al 15% per violazioni successive, con multe che variano da 5 a 15 milioni di dollari.

Difficoltà nell’allineamento dei modelli

In teoria, il progetto mira ad allineare gli interessi economici delle aziende con quelli della sicurezza pubblica. Tuttavia, l’allineamento dei modelli per prevenire abusi si è dimostrato difficile. Questo perché l’allineamento sembra più utile nel prevenire danni accidentali, come la generazione di consigli errati, piuttosto che nel fermare attori malintenzionati che vogliono costruire armi.

Le attuali metodologie si concentrano su sistemi esterni che operano sui modelli per mantenere l’allineamento, come i filtri di contenuto esterni e i protocolli di supervisione umana.

Contraddizioni e costi di conformità

Il RAISE Act impone requisiti pesanti per raggiungere i suoi obiettivi. Se i protocolli di sicurezza sono efficaci, perché è necessario mantenere cinque anni di registrazioni? Se un modello supera un audit indipendente, perché deve comunque soddisfare uno standard di “ragionevolezza” separato per l’implementazione?

Le contraddizioni vanno oltre l’inefficienza burocratica. Questo atto cerca di affrontare la trasparenza aziendale, le protezioni per i dipendenti, la sicurezza tecnica e la responsabilità all’interno di un unico quadro normativo, il che rischia di dare priorità alla conformità piuttosto che ai risultati di sicurezza reali.

Stime sui costi di conformità suggeriscono che il costo reale potrebbe essere molto più elevato di quanto previsto. Le valutazioni dei costi di conformità per il RAISE Act indicano che il tempo necessario per conformarsi potrebbe variare tra 1.070 e 2.810 ore nel primo anno, richiedendo di fatto un dipendente a tempo pieno.

Conclusione

La vasta gamma di stime evidenzia l’incertezza fondamentale associata al RAISE Act e ad altre leggi simili. In un mercato in rapida evoluzione, sono necessarie leggi che diano priorità a una mitigazione efficace dei rischi piuttosto che a una burocrazia regolatoria.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...