Nuove regole di MeitY inaspriscono il controllo sull’IA, ma i deepfake osceni continuano a perseguitare gli inserzionisti
Nei giorni successivi all’adozione di emendamenti alle regole dell’Information Technology (Intermediary Guidelines and Digital Media Ethics Code) del 2021, esperti del settore affermano che la regolamentazione da sola non sarà sufficiente a neutralizzare l’ondata crescente di contenuti osceni generati dall’IA online.
Nonostante il nuovo quadro normativo richieda la tracciabilità, l’etichettatura e la rimozione rapida dei contenuti AI sessualmente espliciti, non consensuali e borderline, questi continuano a circolare sui social, creando una crisi di sicurezza del marchio per gli inserzionisti.
Modifiche alle regole
Secondo le nuove regole, gli intermediari devono etichettare chiaramente il materiale generato dall’IA, incorporare metadati tracciabili e rimuovere contenuti illeciti entro tre ore dalla segnalazione da parte delle autorità. Questo rappresenta un inasprimento significativo rispetto alla finestra precedente di 36 ore. Le modifiche mirano esplicitamente a combattere i deepfake e le immagini sessualmente non consensuali, imponendo obblighi di diligenza rigorosi alle piattaforme e ai fornitori di servizi IA.
Le sfide dell’applicazione
Tuttavia, l’applicazione rimane la sfida centrale. La regolamentazione ha recentemente emesso avvisi su presunti abusi di chatbot IA che permettevano la generazione di immagini sessualmente esplicite di donne e minori. Ciò solleva preoccupazioni sulla dignità e sulla privacy delle donne, richiedendo audit e misure di sicurezza più forti.
La situazione evidenzia una preoccupazione più profonda: sebbene le normative siano state rafforzate, gli strumenti di IA generativa rendono la creazione di contenuti espliciti più rapida, economica e scalabile. La zona grigia del contenuto sessualizzato o provocatorio, che potrebbe non violare chiaramente le leggi, rappresenta un problema di governance della piattaforma e standard pubblicitari.
Implicazioni per gli inserzionisti
Per gli inserzionisti, la minaccia è duplice: l’associazione del marchio a contenuti sintetici espliciti e l’uso improprio dell’immagine degli ambasciatori del marchio attraverso i deepfake. Il marketing degli influencer è particolarmente esposto. Una ricerca ha rivelato che una proporzione significativa degli strumenti di deepfake produce contenuti non adatti al lavoro.
Le piattaforme non possono distaccarsi dalla responsabilità quando gli algoritmi sono progettati per massimizzare l’engagement. Se i loro sistemi promuovono contenuti inappropriati per profitto, diventano parte del problema. Questa interpretazione, se adottata più ampiamente dai regolatori, potrebbe ridefinire le protezioni legali per gli intermediari, specialmente nei casi in cui i contenuti generati dall’IA vengono amplificati per monetizzazione.
Conclusione
Le nuove regole di MeitY cercano di chiudere queste lacune richiedendo metadati integrati e dichiarazioni da parte degli utenti quando vengono utilizzati strumenti sintetici. Tuttavia, la tecnologia di rilevamento spesso è in ritardo rispetto agli strumenti di generazione, rendendo complessa la moderazione in tempo reale. I marchi che sperimentano con influencer IA o asset creativi sintetici devono procedere con cautela, bilanciando la promessa creativa dell’IA con guardrail etici.
La regolamentazione indica un cambiamento di politica più ampio, trattando i danni sintetici con urgenza. Tuttavia, l’efficacia delle nuove norme dipenderà dall’implementazione a livello di piattaforma, dalla pressione degli inserzionisti e dal controllo pubblico. Man mano che l’IA sfuma la linea tra immagini autentiche e fabbricate, le scommesse reputazionali per i marchi non sono mai state così alte.