Rivoluzione nella Rilevazione: SynthID di Google

Google lancia SynthID Detector – Uno strumento rivoluzionario per la rilevazione dell’IA

Google ha introdotto SynthID Detector, un potente strumento in grado di rilevare contenuti generati dall’IA. Questo strumento funziona identificando i watermark generati da SynthID nei contenuti forniti dagli strumenti di intelligenza artificiale di Google, come Imagen, Gemini e Lyria.

Attualmente, il detector è in fase di test e disponibile solo per gli utenti che si registrano in una lista d’attesa. SynthID Detector è anche open-source, consentendo a chiunque di sviluppare ulteriormente l’architettura tecnologica.

La necessità di SynthID Detector

Nonostante i numerosi vantaggi offerti dall’intelligenza artificiale, essa è diventata anche uno strumento potente nelle mani dei criminali. Sono stati riportati centinaia di incidenti in cui persone innocenti sono state truffate o minacciate utilizzando contenuti generati dall’IA.

Ad esempio, il 13 maggio, Sandra Rogers, una donna della contea di Lackawanna, è stata dichiarata colpevole di possesso di immagini di abuso sessuale su minori generate dall’IA. In un altro caso, un ragazzo di 17 anni ha estorto informazioni personali a 19 vittime creando deepfake sessualmente espliciti e minacciando di divulgarli.

In Cina, un uomo è stato truffato per 622.000 dollari da un truffatore che utilizzava una voce generata dall’IA per impersonare un amico al telefono. Truffe simili sono diventate popolari anche negli Stati Uniti e in altri paesi.

Il dilemma legale dell’uso dell’IA

Oltre all’uso illegale dell’IA, esiste anche un dilemma morale legato al suo utilizzo crescente. Gli educatori sono particolarmente preoccupati per l’uso di modelli di generazione di testi nelle scuole e università.

Invece di impegnarsi nello studio, gli studenti ora possono semplicemente inserire alcuni comandi per generare articoli e compiti dettagliati e simili a quelli umani. Uno studio condotto presso l’Università della Pennsylvania ha mostrato che gli studenti che avevano utilizzato ChatGPT potevano risolvere il 48% di problemi matematici in più rispetto a quelli che non lo avevano fatto.

Tuttavia, quando è stato condotto un test, gli studenti che avevano utilizzato ChatGPT hanno risolto il 17% di problemi in meno rispetto a quelli che non lo avevano fatto. Questo dimostra che l’uso di questi modelli non contribuisce realmente all’apprendimento e allo sviluppo accademico.

SynthID Detector è open-source

Un aspetto positivo dell’annuncio di Google riguardo a SynthID Detector è che lo strumento è stato mantenuto open-source. Ciò consentirà ad altre aziende e creatori di costruire sull’architettura esistente e incorporare la rilevazione del watermark nei propri modelli di intelligenza artificiale.

Attualmente, SynthID Detector funziona solo per gli strumenti di intelligenza artificiale di Google, che rappresentano solo una piccola parte del mercato dell’IA. Pertanto, se qualcuno genera un testo utilizzando ChatGPT, non esiste ancora un modo affidabile per determinare se è stato generato dall’IA.

In conclusione, è lodevole che Google non ha mantenuto segreta questa importante innovazione. Altre aziende preoccupate per l’abuso crescente dei loro modelli di IA dovrebbero contribuire al bene comune di rendere l’IA sicura per la società.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...