EU e Regno Unito Avviano Grandi Indagini su Grok AI per Scandalo Deepfake
In un’importante escalation della supervisione globale sull’IA, i regolatori del Regno Unito e dell’Unione Europea hanno intensificato le indagini sul chatbot Grok AI, accusandolo di facilitare la creazione di deepfake sessualizzati non consensuali. La controversia è emersa all’inizio di gennaio 2026 e ha portato a divieti temporanei in diversi paesi, multe potenziali e richieste di maggiore responsabilità da parte delle piattaforme, sotto leggi come il Online Safety Act del Regno Unito e il Digital Services Act (DSA) dell’UE.
Dettagli dell’Indagine
Le indagini si concentrano sulle funzionalità di modifica delle immagini di Grok, introdotte a fine dicembre 2025, che consentivano agli utenti di generare o manipolare foto in contenuti espliciti senza adeguate misure di sicurezza. Rapporti di utenti e gruppi di vigilanza hanno rivelato migliaia di casi di richieste per contenuti sessualizzati, etichettati come “riprovevoli” e “illegali” da funzionari dell’UE.
Risposte dei Regolatori
Nel Regno Unito, l’Ofcom ha avviato un’indagine formale, descrivendo i rapporti come “profondamente preoccupanti”. Il Primo Ministro ha condannato le immagini come “disgustose” e ha esortato la piattaforma a prendere il controllo dei suoi strumenti di IA. La risposta del governo è stata rapida, con annunci di misure di enforcement riguardanti il Data Act del 2025, rendendo le funzionalità di “nudificazione” una priorità offensiva.
Posizione dell’Unione Europea
L’Unione Europea ha adottato una posizione simile, utilizzando il DSA per richiedere responsabilità. La Commissione Europea ha esteso un’ordinanza di conservazione dei dati, richiedendo la preservazione di tutti i documenti interni relativi a Grok fino alla fine del 2026. I funzionari hanno avvertito che il mancato rispetto delle misure potrebbe portare a sanzioni significative.
Reazioni Globali
Il fallout ha superato l’Europa, con paesi come Malesia e Indonesia che hanno imposto divieti temporanei su Grok, citando rischi per la morale pubblica e la sicurezza infantile. Anche in altri paesi come India, Brasile e Australia sono state avviate indagini parallele.
Risposte di Grok AI
Il fondatore di xAI ha risposto in modo provocatorio, etichettando i regolatori britannici come “fascisti”. Le modifiche annunciate per limitare la modifica delle immagini sono state considerate “benvenute ma insufficienti” senza una verifica dell’efficacia.
Implicazioni e Rischi
Questo scandalo mette in evidenza la necessità di una regolamentazione per l’IA generativa, dove l’innovazione supera le misure di sicurezza. Esperti avvertono che senza controlli etici integrati, strumenti come Grok rischiano di perpetuare danni.
Conclusione
L’incidente di Grok rappresenta una chiamata all’azione per il settore dell’IA. Con le proiezioni che indicano un aumento significativo delle entrate dell’IA imprenditoriale, l’accento sulle strutture etiche intensificherà le pressioni sui regolatori, segnando un cambiamento verso una maggiore responsabilità.