Indagine dell’UE su X di Musk per immagini sessualizzate di Grok dopo l’indignazione pubblica
Il 26 gennaio, X di Musk è stato oggetto di un’indagine da parte dell’Unione Europea per valutare se la piattaforma diffonda contenuti illegali, in seguito alle preoccupazioni pubbliche riguardo alla diffusione di immagini sessualizzate manipolate generate dal chatbot Grok.
Contesto dell’indagine
La Commissione Europea ha dichiarato che esaminerà se X protegga i consumatori valutando e mitigando adeguatamente i rischi legati alle funzionalità di Grok. Questa indagine arriva due settimane dopo che il regolatore britannico ha avviato un proprio esame, preoccupato per la creazione di immagini deepfake sessualmente intime, e dopo che alcuni paesi hanno temporaneamente bloccato il chatbot.
Preoccupazioni globali
La Commissione ha affermato che le immagini generate dall’IA di donne e bambini nudi condivise su X sono illegali e inaccettabili, un punto sostenuto dai leader dell’UE che hanno condannato tali pratiche come una forma violenta di degradazione.
Reazioni di X
X ha riferito di aver limitato l’editing delle immagini per gli utenti di Grok e di aver bloccato gli utenti in base alla loro posizione geografica dal generare immagini di persone in abbigliamento rivelatore in giurisdizioni dove ciò è illegale. Tuttavia, i cambiamenti apportati non risolvono tutte le problematiche e i rischi sistemici, secondo funzionari della Commissione.
Implicazioni legali e rischi per l’azienda
L’indagine potrebbe irritare l’amministrazione statunitense, poiché un’azione dell’UE contro le grandi tecnologie ha già suscitato critiche e minacce di dazi. La Commissione intende determinare se X abbia rispettato i propri obblighi legali e se abbia trattato i diritti dei cittadini europei come danni collaterali del proprio servizio.
Conclusione
Il caso solleva questioni più ampie sulle debolezze nella regolamentazione e nell’applicazione delle tecnologie IA. È essenziale che le leggi dell’UE siano applicabili in tempo reale quando si verificano danni seri.