Il Regno Unito inserirà i chatbot AI nelle leggi sulla sicurezza dopo il caso Grok
Il governo del Regno Unito ha annunciato che includerà i chatbot AI nelle leggi sulla sicurezza online, chiudendo una lacuna emersa dopo che il chatbot AI Grok è stato utilizzato per creare deepfake sessualizzati.
Responsabilità dei fornitori di chatbot
I fornitori di chatbot saranno responsabili di impedire che i loro sistemi generino contenuti illegali o dannosi, estendendo così le regole che attualmente si applicano solo ai contenuti condivisi tra utenti sui social media. Il governo intende chiudere una lacuna legale e costringere tutti i fornitori di chatbot AI a rispettare i doveri relativi ai contenuti illegali nel quadro della Legge sulla Sicurezza Online, pena conseguenze legali.
Normative esistenti
La Legge sulla Sicurezza Online, entrata in vigore a luglio, richiede alle piattaforme che ospitano contenuti potenzialmente dannosi di implementare rigorose verifiche dell’età attraverso strumenti come immagini facciali o controlli con carta di credito. È inoltre illegale per i siti creare immagini intime non consensuali o materiale di abuso sessuale su minori, inclusi i deepfake sessuali creati con AI.
Indagini in corso
A gennaio, l’agenzia di regolamentazione dei media del Regno Unito ha avviato un’indagine sulla piattaforma di social media che ospita Grok, per non aver rispettato i suoi obblighi di sicurezza. È stato notato che non tutti i chatbot AI sono regolamentati, compresi quelli che “consentono solo di interagire con il chatbot stesso e nessun altro utente”.
Conclusione
Con l’evoluzione rapida della tecnologia, la legislazione fatica a tenere il passo, rendendo necessarie misure appropriate per i chatbot AI.