Novas Regras de TI: Etiquetagem Obrigatória de Conteúdo Gerado por IA e Prazos Acelerados para Remoções

Novas regras de TI do governo tornam obrigatória a rotulagem de conteúdo gerado por IA

O governo introduziu um marco regulatório formal para conteúdos gerados por IA — como vídeos deepfake, áudio sintético e visuais alterados — ao alterar as regras de intermediários de TI da Índia. A notificação foi publicada na G.S.R. 120(E) e assinada pelo Secretário Adjunto.

Definição de Conteúdo Gerado por IA

Pela primeira vez, a legislação central inclui uma definição formal para “informações geradas sinteticamente”. Isso abrange qualquer conteúdo de áudio, visual ou audiovisual criado ou alterado com recursos computacionais que pareçam reais e representem pessoas ou eventos de uma maneira que poderia ser considerada genuína.

No entanto, edições rotineiras, como correção de cor, redução de ruído e compressão, estão isentas, desde que não distorçam o significado original.

Compliance mais rigoroso para plataformas sociais

Grandes plataformas de mídias sociais, como Instagram, YouTube e Facebook, terão que se adaptar a um padrão de conformidade mais rigoroso. Antes que um usuário faça o upload, a plataforma deve perguntar: “Este conteúdo é gerado por IA?” Além da auto-declaração, as plataformas devem implementar ferramentas automatizadas para verificar o formato, origem e natureza do conteúdo antes da publicação.

Se o conteúdo for sinalizado como sintético, um rótulo de divulgação visível deve ser adicionado. Caso uma plataforma permita a publicação de conteúdos que violem essa regra, será considerada negligente.

Prazos reduzidos para ações

Os prazos para que as plataformas respondam a ordens legais foram reduzidos. O tempo para agir caiu de 36 horas para apenas três horas em certos casos. O prazo de 15 dias foi reduzido para sete dias, e o prazo de 24 horas foi cortado pela metade.

Implicações legais e aviso aos usuários

As novas regras também estabelecem uma ligação direta entre conteúdo sintético e a legislação criminal. Conteúdos envolvendo material de abuso sexual infantil, conteúdo obsceno e deepfakes que distorcem a identidade ou a voz de uma pessoa real agora estão sob a legislação pertinente.

Além disso, as plataformas devem alertar os usuários, pelo menos uma vez a cada três meses, sobre as penalidades por uso indevido de conteúdo gerado por IA. Por outro lado, o governo garantiu que agir contra conteúdo sintético sob essas regras não removerá a proteção de porto seguro para intermediários.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...