Regras de Etiquetagem para Conteúdos Gerados por IA nas Redes Sociais

Explicado: À medida que o governo aperta as regras sobre conteúdo de IA, o que devem fazer as plataformas de mídia social e outras

O governo central emitiu diretrizes que exigem que as plataformas de mídia social, entre outras, rotulem claramente todo o conteúdo gerado ou modificado por inteligência artificial.

Quais regras mudaram?

O Ministério da Eletrônica e Tecnologia da Informação (MeitY) fez alterações nas Regras de Tecnologia da Informação (Diretrizes para Intermediários e Código de Ética da Mídia Digital) de 2021. O quadro de intermediários da Índia foi estabelecido pela primeira vez em 2011 e posteriormente substituído pelas emendas de 2021, que expandiram as obrigações de diligência para intermediários de mídia social e introduziram regulamentações para notícias digitais e conteúdo audiovisual curado.

As diretrizes mais recentes se baseiam nessas regras, trazendo informações geradas sinteticamente (SGI), incluindo deepfakes, para um quadro regulatório mais rigoroso.

O que mudou?

De acordo com as novas regras, os intermediários devem garantir que o conteúdo gerado ou modificado por IA seja rotulado ou identificável, seja por meio de divulgações visíveis ou metadados incorporados. As regras permitem o uso de medidas técnicas, como metadados incorporados, como identificadores para permitir conformidade flexível, garantindo a rastreabilidade. Além disso, os identificadores aplicados se tornam irreversíveis.

As plataformas também devem alertar os usuários sobre as consequências do uso indevido de IA pelo menos uma vez a cada três meses. O governo também exigiu a implementação de ferramentas automatizadas para detectar e prevenir a disseminação de conteúdo gerado por IA que seja ilegal, sexualmente exploratório ou enganoso.

Anteriormente, havia uma janela de 36 horas para os intermediários cumprirem as ordens de remoção. Contudo, sob medidas de fiscalização mais rigorosas, as plataformas agora devem remover ou desativar o acesso ao conteúdo gerado por IA dentro de três horas após receber uma ordem do tribunal ou do governo.

Quem são os intermediários?

Entidades que armazenam ou transmitem dados em nome dos usuários finais são considerados intermediários. Isso inclui provedores de serviços de telecomunicações, marketplaces online, motores de busca e mídias sociais.

Como as regras serão aplicadas?

A fase inicial da aplicação se concentra em grandes intermediários de mídia social com cinco milhões ou mais usuários registrados na Índia. Isso significa que as regras impactarão principalmente jogadores estrangeiros.

Por que agora?

Essas medidas surgem em meio à recente controvérsia do Grok, onde o chatbot de IA gerou deepfakes explícitos sem consentimento. As mudanças também seguem consultas recentes do governo com entidades do setor.

As regras garantirão que as plataformas informem os usuários sobre SGI e até mesmo identifiquem aqueles envolvidos na produção desse tipo de conteúdo.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...