Riforma della Trasparenza AI: Nuove Regole per le Piattaforme Sociali

Il California AI Transparency Act (CAITA) potrebbe essere modificato per regolamentare le piattaforme di social media

Lo scorso anno, l’Assemblea Generale della California ha approvato il California AI Transparency Act (CAITA), che è stato firmato in legge dal Governatore Gavin Newsom il 19 settembre 2024 e entrerà in vigore il 1° gennaio 2026. Tuttavia, quest’anno, la stessa Assemblea Generale ha approvato la AB 853, una modifica al CAITA con potenziali implicazioni significative.

Attualmente, il CAITA si applica solo a determinati fornitori di sistemi di intelligenza artificiale generativa (GenAI) accessibili al pubblico. Tuttavia, la versione modificata del CAITA stabilisce che le grandi piattaforme online e i produttori di cosiddetti dispositivi di cattura devono anche rispettare determinati requisiti di conservazione e divulgazione dei dati.

Definizione e requisiti delle grandi piattaforme online

La AB 853 definisce le grandi piattaforme online come piattaforme di social media con almeno due milioni di utenti mensili negli ultimi dodici mesi. I dispositivi di cattura sono definiti come “dispositivi in grado di registrare contenuti fotografici, audio o video”. La definizione di “fornitore coperto” secondo il CAITA originale includeva già queste piattaforme e dispositivi se impegnati nella fornitura o licenza di un sistema GenAI coperto; tuttavia, ora la loro copertura sotto il CAITA modificato sarebbe esplicita e i loro obblighi più specificamente definiti.

Scadenza per la firma della AB 853

Il Governatore Newsom ha tempo fino al 12 ottobre 2025 per firmare la AB 853, dopo di che la data di entrata in vigore dei requisiti generali del CAITA sarà posticipata al 2 agosto 2026. Se il governatore non firma la AB 853, la versione attuale del CAITA entrerà in vigore il 1° gennaio 2026.

Panoramica dell’attuale versione del CAITA

La versione attuale del CAITA è, essenzialmente, una legge di avviso. Richiede a determinate aziende che producono output di GenAI di includere divulgazioni latenti all’interno di questi output. Una divulgazione latente è definita dalla legge come “presente ma non manifesta”. Le aziende coperte devono offrire agli utenti l’opzione di includere divulgazioni manifeste sui loro output di GenAI, con “manifesto” definito come “facilmente percepito, compreso o riconosciuto da una persona naturale”.

Il CAITA si applica attualmente a qualsiasi persona o azienda “che crea, codifica o produce in altro modo un sistema di GenAI che ha oltre 1.000.000 di visitatori o utenti mensili ed è accessibile pubblicamente all’interno dei confini geografici della California”. È importante notare che la AB 853 non cambierebbe queste disposizioni, ma estenderebbe solo la loro data di entrata in vigore.

La modifica del CAITA

Requisiti di conservazione dei dati di provenienza

La proposta di modifica del CAITA richiederebbe alle grandi piattaforme online di rilevare e mantenere i dati di provenienza, simili a un registro di custodia per i dati di addestramento, in conformità con standard di settore ampiamente accettati e di fornire agli utenti un’interfaccia per ispezionare tali dati. Le modifiche proposte richiederebbero anche ai produttori di dispositivi di cattura, per quanto tecnicamente fattibile, di fornire agli utenti l’opzione di includere informazioni di divulgazione latente specificate nei contenuti che catturano o alterano.

Questi requisiti sono più dettagliati e quindi, probabilmente, più gravosi rispetto a quelli previsti dalla legge esistente. Tuttavia, come la versione originale del CAITA, le modifiche proposte richiederebbero comunque agli enti coperti di rendere disponibili strumenti di rilevamento dell’IA gratuitamente per gli utenti.

Costi di implementazione e impatti

Preservare e rendere disponibili i dati di provenienza comporterà probabilmente dei costi, come costi operativi per la gestione e la sicurezza dei dati. Gli enti regolamentati, incluse le piattaforme, devono anche garantire che queste divulgazioni latenti negli output generati dall’IA siano preservate in un modo che possa essere identificato da uno strumento di rilevamento dell’IA. Ci saranno costi associati a questo requisito.

Inoltre, sebbene il CAITA richieda il mantenimento di specifici dati di provenienza, vieta anche ai fornitori coperti di raccogliere o conservare determinate informazioni personali degli utenti e vieta di conservare qualsiasi contenuto inviato a uno strumento di rilevamento dell’IA “più a lungo del necessario per conformarsi” a questa legge.

Impatto del CAITA, indipendentemente dalla sua modifica

Indipendentemente dal fatto che il Governatore Newsom firmi o meno la AB 853, l’impatto più significativo del CAITA deriverà dalle sanzioni che impone alle aziende per la rimozione o il mancato mantenimento dei dati di provenienza e dall’obbligo che i fornitori coperti offrano strumenti di rilevamento dell’IA agli utenti. Queste sanzioni includono responsabilità per un importo di $5.000 per violazione e spese legali per un ricorrente vittorioso.

Queste disposizioni potrebbero aiutare a combattere la disinformazione, ma potrebbero anche creare un falso senso di sicurezza che consente a attori più sofisticati di sfruttare la dipendenza degli utenti da questi strumenti come fonte di verità.

Timeline di implementazione per la AB 853

Provisions of CAITA Effective Date
Generali 2 agosto 2026
Provisions per grandi piattaforme online 1 gennaio 2027
Provisions per produttori di dispositivi di cattura 1 gennaio 2028

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...