Perché le restrizioni di Grok di X segnano un punto di svolta per l’etica dell’IA
La piattaforma ha implementato restrizioni significative sul suo strumento di intelligenza artificiale Grok dopo le critiche diffuse riguardo alla possibilità di creare immagini sessualizzate di persone reali.
La compagnia ha confermato che, nelle giurisdizioni in cui è illegale, Grok non sarà più in grado di modificare le foto di individui per ritrarli in abbigliamento provocante.
“Abbiamo implementato misure tecniche per impedire che l’account Grok consentisse la modifica di immagini di persone reali in abbigliamento provocante,” ha dichiarato un annuncio sulla piattaforma.
Reazioni alle restrizioni di Grok
Il watchdog indipendente per la sicurezza online nel Regno Unito ha aperto un’indagine formale su X per determinare se ha rispettato i doveri di protezione degli utenti da contenuti illegali.
Le preoccupazioni riguardano una funzionalità di Grok che produce immagini di persone non vestite e immagini sessualizzate di minori.
In un aggiornamento, X ha affermato di aver implementato misure per impedire la creazione di immagini intime di persone. Tuttavia, l’indagine formale prosegue.
Contesto e sfide legali
Non è solo il Regno Unito a esprimere preoccupazioni; in California, il procuratore generale ha avviato un’indagine sulla diffusione di deepfake sessualmente espliciti generati da Grok.
X ha dichiarato di bloccare geograficamente la possibilità di generare immagini di persone reali in bikini, biancheria intima e abbigliamento simile nelle giurisdizioni in cui è illegale.
Solo gli abbonati paganti possono utilizzare gli strumenti di modifica delle immagini di Grok, creando un ulteriore “livello di protezione” per garantire la responsabilità.
Implicazioni per l’etica dell’IA
Nonostante le risposte, i regolatori e i gruppi di advocacy sostengono che le misure reattive di X evidenziano un problema più ampio di governance nelle piattaforme di intelligenza artificiale.
Purtroppo, migliaia di immagini sessualizzate generate da IA sono circolate sulla piattaforma, portando a richieste per rimuovere Grok dai negozi di applicazioni.
La situazione di X rappresenta un momento cruciale nell’evoluzione della governance delle piattaforme di intelligenza artificiale.
Introdurre restrizioni e blocchi geograficamente rappresenta un passo verso la ricostruzione della fiducia, ma esperti avvertono che l’applicazione rigorosa delle politiche e la trasparenza continua saranno cruciali per il successo di tali misure.