Rischi di Sicurezza dell’Intelligenza Artificiale: Il Fallimento del RAISE Act di New York

Il RAISE Act di New York e i Rischi per la Sicurezza dell’IA

Il Responsible AI Safety and Education (RAISE) Act dello Stato di New York ha come obiettivo quello di proteggere le persone dai danni causati dall’IA. Tuttavia, assumere che i modelli di IA siano il punto chiave per garantire la sicurezza potrebbe trasformare una sfida tecnica in un onere burocratico.

Obiettivi e requisiti del RAISE Act

Il RAISE Act, redatto dal membro dell’Assemblea Statale Alex Bores, applica una serie di requisiti mirati a garantire che le tecnologie IA vengano implementate e utilizzate in modo responsabile. Attualmente è in fase di discussione in commissione.

Bores e altri legislatori sono preoccupati che l’IA avanzata possa contribuire alla creazione di armi chimiche, biologiche e nucleari. Tuttavia, i veri rischi risiedono nell’accessibilità di materiali precursori pericolosi, non nei sistemi di IA stessi.

Requisiti per gli sviluppatori di modelli

I sviluppatori di modelli coperti dal RAISE devono seguire una serie di regole, tra cui:

  • Procedure di test obbligatorie e strategie di mitigazione dei rischi;
  • Audits regolari da parte di terzi;
  • Requisiti di trasparenza;
  • Segnalazione di incidenti pericolosi;
  • Registrazione dettagliata dei test per cinque anni;
  • Revisioni annuali dei protocolli;
  • Divieto di implementare modelli “irragionevolmente” rischiosi.

Tutte queste disposizioni sono supportate da sanzioni significative per le violazioni, che partono dal 5% dei costi di calcolo per una prima violazione e possono arrivare fino al 15% per violazioni successive, con multe che variano da 5 a 15 milioni di dollari.

Difficoltà nell’allineamento dei modelli

In teoria, il progetto mira ad allineare gli interessi economici delle aziende con quelli della sicurezza pubblica. Tuttavia, l’allineamento dei modelli per prevenire abusi si è dimostrato difficile. Questo perché l’allineamento sembra più utile nel prevenire danni accidentali, come la generazione di consigli errati, piuttosto che nel fermare attori malintenzionati che vogliono costruire armi.

Le attuali metodologie si concentrano su sistemi esterni che operano sui modelli per mantenere l’allineamento, come i filtri di contenuto esterni e i protocolli di supervisione umana.

Contraddizioni e costi di conformità

Il RAISE Act impone requisiti pesanti per raggiungere i suoi obiettivi. Se i protocolli di sicurezza sono efficaci, perché è necessario mantenere cinque anni di registrazioni? Se un modello supera un audit indipendente, perché deve comunque soddisfare uno standard di “ragionevolezza” separato per l’implementazione?

Le contraddizioni vanno oltre l’inefficienza burocratica. Questo atto cerca di affrontare la trasparenza aziendale, le protezioni per i dipendenti, la sicurezza tecnica e la responsabilità all’interno di un unico quadro normativo, il che rischia di dare priorità alla conformità piuttosto che ai risultati di sicurezza reali.

Stime sui costi di conformità suggeriscono che il costo reale potrebbe essere molto più elevato di quanto previsto. Le valutazioni dei costi di conformità per il RAISE Act indicano che il tempo necessario per conformarsi potrebbe variare tra 1.070 e 2.810 ore nel primo anno, richiedendo di fatto un dipendente a tempo pieno.

Conclusione

La vasta gamma di stime evidenzia l’incertezza fondamentale associata al RAISE Act e ad altre leggi simili. In un mercato in rapida evoluzione, sono necessarie leggi che diano priorità a una mitigazione efficace dei rischi piuttosto che a una burocrazia regolatoria.

More Insights

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Sicurezza: Affrontare la Nuova Era delle Minacce

Le organizzazioni devono affrontare una nuova realtà: l'IA sta rapidamente rimodellando il panorama delle minacce informatiche. Mentre l'IA aiuta a migliorare la rilevazione e la risposta, porta anche...

Governare l’Intelligenza Artificiale: Verso un Futuro Sostenibile

La Thailandia ha redatto principi per la legislazione sull'intelligenza artificiale (AI), mirando a stabilire un ecosistema AI e ad ampliare l'adozione. La nuova legge dovrebbe fornire protezione agli...

Leggi Texane per una Governance Responsabile dell’Intelligenza Artificiale in Sanità

Il Texas ha adottato leggi complete sulla governance dell'intelligenza artificiale con disposizioni specifiche per il settore sanitario, inclusa la legge HB 149. Questa legge stabilisce un quadro per...

Intelligenza Artificiale: Garanzia di Allineamento e Governance

Gillian K. Hadfield è stata nominata Professore Distinto Bloomberg di Allineamento e Governance dell'IA presso la Johns Hopkins University. È riconosciuta a livello internazionale per la sua ricerca...

Il lato oscuro della pornografia con cambio di volto

Con l'evoluzione della tecnologia AI, gli strumenti di face swap vengono sempre più sfruttati in modo dannoso, in particolare nella pornografia con scambi di volto. Questo articolo esplora le...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Il Miraggio di Bruxelles: L’Impatto Sottile della Legge AI dell’UE

L'Atto sull'IA dell'UE, adottato nel 2024, rappresenta un tentativo di stabilire un modello normativo che possa influenzare altri paesi, ma la sua efficacia internazionale sembra svanire di fronte a...

Governanza Etica e Inclusiva dell’AI in Indonesia

Il Ministero della Comunicazione e del Digitale dell'Indonesia ha ribadito il proprio impegno a integrare principi etici e di inclusione nelle proprie politiche sull'intelligenza artificiale (AI). Il...