A Regulamentação do Governo sobre Rotulagem de Conteúdo Gerado por IA

O que o governo estabeleceu sobre rotulagem de IA?

O Ministério da Eletrônica e Tecnologia da Informação notificou uma emenda às Regras de TI, que exigirá que usuários e plataformas de mídia social rotulem conteúdo gerado por IA. Além disso, os prazos para remoção de conteúdo foram reduzidos de 24-36 horas para duas a três horas. Essas regras entrarão em vigor em 20 de fevereiro de 2026.

Conteúdo gerado por IA

As Regras de Emenda de Diretrizes de Intermediários de Tecnologia da Informação e Código de Ética da Mídia Digital exigem que plataformas de mídia social rotulem de maneira “proeminente” o conteúdo “sinteticamente gerado”, ou seja, imagens e vídeos gerados por IA. Esta exigência visa combater “deepfakes, desinformação e outros conteúdos ilegais” que possam enganar os usuários e ameaçar a integridade nacional.

A definição inicial de “Informação Sinteticamente Gerada” (SGI) era mais ampla, incluindo qualquer conteúdo audiovisual modificado ou gerado por IA, mas as regras finais excluem algumas isenções, como fotos tiradas por smartphones que são automaticamente retocadas pelo aplicativo de câmera.

Detecção de conteúdo gerado por IA

O governo solicitou às grandes plataformas que implementem medidas técnicas razoáveis para prevenir SGI ilegal e garantir a rotulagem. Um representante do Ministério da TI argumentou que essas plataformas já possuem ferramentas sofisticadas para detectar SGI, e essa exigência apenas formaliza uma prática existente.

Alterações nos prazos

As novas regras permitem que autoridades governamentais e oficiais de polícia emitam notificações de remoção de conteúdo em prazos reduzidos. Para notificações de remoção emitidas pelo governo ou tribunal, os prazos foram reduzidos para 2-3 horas. As reclamações de usuários sobre categorias de conteúdo “ilegal” também têm novos prazos de resposta.

Outras mudanças

Os usuários receberão lembretes mais frequentes sobre os termos e condições das plataformas, aumentando a frequência das notificações de uma vez por ano para pelo menos uma vez a cada três meses. As regras agora também exigem que as plataformas alertem os usuários sobre o risco de conteúdos gerados por IA que possam resultar em ações legais.

Conclusão

Essas novas diretrizes refletem uma resposta do governo à crescente preocupação com a desinformação e a segurança online. A implementação de rótulos para conteúdo gerado por IA é um passo importante para aumentar a transparência e a responsabilidade nas plataformas digitais.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...