Intelligenza Artificiale: Urgenza di Sicurezza e Innovazione

Risposta del Senatore Wiener al Rapporto Finale degli Esperti sul Quadro di Governance dell’IA

Il 17 giugno 2025, il Joint California Policy Working Group sui Modelli di Frontiera dell’IA ha pubblicato il suo rapporto finale, presentando un quadro per la governance dei modelli di IA in California. Questo gruppo di lavoro è stato convocato dal Governatore Gavin Newsom dopo il veto del Senatore Scott Wiener sul disegno di legge SB 1047.

Dichiarazione del Senatore Wiener

In risposta alla pubblicazione del rapporto, il Senatore Wiener ha dichiarato: “Questo rapporto conferma quanto affermato dai nostri migliori esperti di IA: mentre l’IA offre enormi opportunità per un futuro di abbondanza e prosperità diffusa, il potere immenso di questi modelli richiede che i politici agiscano con urgenza per stabilire efficaci salvaguardie di sicurezza.”

Wiener ha continuato a sottolineare che California ha un ruolo vitale nell’instaurare salvaguardie per l’IA, affermando che “possiamo impostare lo standard che gli altri seguiranno.”

Importanza della Governance dell’IA

Il rapporto è giunto in un momento cruciale per il futuro dell’IA in California e nel mondo. Molte aziende stanno promuovendo l’idea che il governo federale elimini le protezioni statali contro pratiche dannose come la pornografia di vendetta generata da deepfake, il pregiudizio algoritmico nelle decisioni sanitarie e il furto di proprietà intellettuale. Queste iniziative hanno suscitato critiche bipartisan da parte di leader eletti in tutti gli stati, poiché la necessità di salvaguardie di base è evidente per chiunque segua il rapido progresso delle capacità dell’IA.

Raccomandazioni e Collaborazione

Il Senatore Wiener ha invitato tutti i soggetti interessati a collaborare produttivamente per l’incorporamento delle raccomandazioni nel disegno di legge SB 53. Secondo lui, le raccomandazioni nel rapporto colpiscono un equilibrio ponderato tra la necessità di salvaguardie e il supporto all’innovazione.

Contesto del Gruppo di Lavoro

Il Gruppo di lavoro è stato convocato dal Governatore Newsom alla fine dell’ultima sessione legislativa per raccogliere prove e raccomandazioni dai principali esperti di IA e politici della California. I membri del gruppo di lavoro includono:

  • Dr. Fei-Fei Li, Co-Direttore, Stanford Institute for Human-Centered Artificial Intelligence
  • Dr. Jennifer Tour Chayes, Decano del College of Computing, Data Science, and Society presso l’UC Berkeley
  • Tino Cuéllar, Presidente della Carnegie Endowment for International Peace

More Insights

Regolamentazione dell’IA: Politiche di frammentazione e cattura

La nuova ricerca esplora come il comportamento strategico dei governi, delle aziende tecnologiche e di altri agenti plasmi l'economia politica della regolamentazione dell'intelligenza artificiale. In...

Dubai Cultura: Eccellenza nell’Intelligenza Artificiale

L'Autorità della Cultura e delle Arti di Dubai è stata premiata come vincitrice del Miglior Quadro di Governance dell'IA del 2025 durante il GovTech Innovation Forum & Awards. Questo riconoscimento...

Fiducia nell’AI: Soluzioni di Traffico Sicure per il Futuro

L'intelligenza artificiale sta diventando una parte centrale delle infrastrutture moderne, rendendo la sicurezza, la trasparenza e la responsabilità più critiche che mai. FLIR ha sviluppato un modello...

Nuove pressioni per regolamentare l’IA a livello nazionale

La proposta controversa di bloccare la regolamentazione a livello statale dell'intelligenza artificiale è fallita, aumentando la pressione per un'azione federale. Più di 20 stati, sia democratici che...

Legge Innovativa per la Governance dell’Intelligenza Artificiale nelle Filippine

Il rappresentante Brian Poe ha introdotto il Philippine Artificial Intelligence Governance Act, che mira a stabilire linee guida e regolamenti per l'uso sicuro ed efficace dell'intelligenza...

L’Ascesa dell’IA Generativa nella Certificazione di Rischio e Conformità

Nel 2025, le organizzazioni di tutto il mondo si trovano ad affrontare paesaggi normativi in continua espansione e preoccupazioni per la privacy dei dati. L'AI generativa sta emergendo come un partner...

Il colpo di Grok: Rischi normativi per la tecnologia globale

L'incidente di luglio 2025 che coinvolge l'indagine della Turchia su Grok, lo strumento di intelligenza artificiale integrato in X, segna un momento cruciale per le aziende tecnologiche globali...

Il colpo di Grok: Rischi normativi per la tecnologia globale

L'incidente di luglio 2025 che coinvolge l'indagine della Turchia su Grok, lo strumento di intelligenza artificiale integrato in X, segna un momento cruciale per le aziende tecnologiche globali...

Intelligenza Artificiale Responsabile: Pronti per il Futuro Normativo

L'intelligenza artificiale e le normative stanno avanzando rapidamente, portando a richieste di conformità complesse e in continua evoluzione a livello globale, nazionale e locale. L'adozione di...