Veto della California: il futuro dell’IA a rischio

Il Veto della Legge sull’IA della California

Recentemente, la legislazione statale sulla regolamentazione dell’intelligenza artificiale (IA) in California è stata votata contro dal governatore Gavin Newsom. Questo provvedimento, noto come SB 1047, il “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, è stato al centro di un intenso dibattito tra i legislatori e le parti interessate.

Le Preoccupazioni per la Sicurezza Pubblica

Le preoccupazioni riguardanti i rischi significativi che i sistemi di IA possono comportare per la sicurezza pubblica hanno spinto molti legislatori a proporre iniziative legislative. SB 1047 mirava a stabilire requisiti rigorosi per gli sviluppatori di modelli di IA di grande dimensione, imponendo loro di garantire che non causassero “danni critici”.

Caratteristiche Chiave di SB 1047

Il provvedimento stabiliva che gli sviluppatori di modelli considerati “frontier” dovessero adottare misure preventive per ridurre i rischi associati. Questi modelli erano definiti come quelli addestrati con un potere computazionale superiore a 1026 operazioni o con costi superiori a 100 milioni di dollari. SB 1047 identificava quattro categorie di danni critici:

  • Creazione o uso di armi chimiche, biologiche, radiologiche o nucleari causando massicce perdite di vite.
  • Cyber attacchi su infrastrutture critiche causando massicce perdite.
  • Danni a persone o proprietà che sarebbero considerati crimine se causati da esseri umani.
  • Altri danni gravi alla sicurezza pubblica.

Il provvedimento richiedeva anche l’installazione di un “kill switch”, una misura per garantire che i sistemi di IA potessero essere disattivati in caso di rischio elevato.

Confronto con la Legge dell’UE sull’IA

Un aspetto interessante è il confronto tra SB 1047 e la Legge dell’Unione Europea sull’IA. Entrambi i provvedimenti si concentrano sulla sicurezza dei sistemi di IA, ma differiscono in vari punti chiave. Ad esempio, SB 1047 si concentra maggiormente sugli sviluppatori piuttosto che sugli utilizzatori finali dei modelli di IA.

Pro e Contro di SB 1047

Il provvedimento ha ricevuto supporto da parte di importanti figure nel settore dell’IA, come Anthropic e diversi accademici di spicco, che lo consideravano una regolamentazione necessaria per garantire la sicurezza. Tuttavia, molte aziende, tra cui Google e OpenAI, hanno espresso preoccupazioni, temendo che tali regolamenti potessero ostacolare l’innovazione e la competitività americana nel settore dell’IA.

Reazione del Governatore Newsom

In una dichiarazione, il governatore Newsom ha sottolineato che la California ospita 32 delle principali aziende di IA al mondo e ha espresso preoccupazione che la legge avrebbe potuto danneggiare l’innovazione. Ha evidenziato come la regolamentazione dovrebbe essere basata su evidenze empiriche piuttosto che su congetture.

Conclusione

In sintesi, il veto di SB 1047 ha riacceso il dibattito su come le leggi devono affrontare le sfide poste dall’IA. Mentre la necessità di una regolamentazione è riconosciuta, resta da vedere quale forma essa assumerà in futuro e come bilanciare la sicurezza pubblica con la necessità di promuovere l’innovazione.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...