Rischi di Sicurezza dell’Intelligenza Artificiale: Il Fallimento del RAISE Act di New York

Il RAISE Act di New York e i Rischi per la Sicurezza dell’IA

Il Responsible AI Safety and Education (RAISE) Act dello Stato di New York ha come obiettivo quello di proteggere le persone dai danni causati dall’IA. Tuttavia, assumere che i modelli di IA siano il punto chiave per garantire la sicurezza potrebbe trasformare una sfida tecnica in un onere burocratico.

Obiettivi e requisiti del RAISE Act

Il RAISE Act, redatto dal membro dell’Assemblea Statale Alex Bores, applica una serie di requisiti mirati a garantire che le tecnologie IA vengano implementate e utilizzate in modo responsabile. Attualmente è in fase di discussione in commissione.

Bores e altri legislatori sono preoccupati che l’IA avanzata possa contribuire alla creazione di armi chimiche, biologiche e nucleari. Tuttavia, i veri rischi risiedono nell’accessibilità di materiali precursori pericolosi, non nei sistemi di IA stessi.

Requisiti per gli sviluppatori di modelli

I sviluppatori di modelli coperti dal RAISE devono seguire una serie di regole, tra cui:

  • Procedure di test obbligatorie e strategie di mitigazione dei rischi;
  • Audits regolari da parte di terzi;
  • Requisiti di trasparenza;
  • Segnalazione di incidenti pericolosi;
  • Registrazione dettagliata dei test per cinque anni;
  • Revisioni annuali dei protocolli;
  • Divieto di implementare modelli “irragionevolmente” rischiosi.

Tutte queste disposizioni sono supportate da sanzioni significative per le violazioni, che partono dal 5% dei costi di calcolo per una prima violazione e possono arrivare fino al 15% per violazioni successive, con multe che variano da 5 a 15 milioni di dollari.

Difficoltà nell’allineamento dei modelli

In teoria, il progetto mira ad allineare gli interessi economici delle aziende con quelli della sicurezza pubblica. Tuttavia, l’allineamento dei modelli per prevenire abusi si è dimostrato difficile. Questo perché l’allineamento sembra più utile nel prevenire danni accidentali, come la generazione di consigli errati, piuttosto che nel fermare attori malintenzionati che vogliono costruire armi.

Le attuali metodologie si concentrano su sistemi esterni che operano sui modelli per mantenere l’allineamento, come i filtri di contenuto esterni e i protocolli di supervisione umana.

Contraddizioni e costi di conformità

Il RAISE Act impone requisiti pesanti per raggiungere i suoi obiettivi. Se i protocolli di sicurezza sono efficaci, perché è necessario mantenere cinque anni di registrazioni? Se un modello supera un audit indipendente, perché deve comunque soddisfare uno standard di “ragionevolezza” separato per l’implementazione?

Le contraddizioni vanno oltre l’inefficienza burocratica. Questo atto cerca di affrontare la trasparenza aziendale, le protezioni per i dipendenti, la sicurezza tecnica e la responsabilità all’interno di un unico quadro normativo, il che rischia di dare priorità alla conformità piuttosto che ai risultati di sicurezza reali.

Stime sui costi di conformità suggeriscono che il costo reale potrebbe essere molto più elevato di quanto previsto. Le valutazioni dei costi di conformità per il RAISE Act indicano che il tempo necessario per conformarsi potrebbe variare tra 1.070 e 2.810 ore nel primo anno, richiedendo di fatto un dipendente a tempo pieno.

Conclusione

La vasta gamma di stime evidenzia l’incertezza fondamentale associata al RAISE Act e ad altre leggi simili. In un mercato in rapida evoluzione, sono necessarie leggi che diano priorità a una mitigazione efficace dei rischi piuttosto che a una burocrazia regolatoria.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...