Prazo de 3 horas para remoção de conteúdo gerado por IA na Índia

Índia estabelece prazo de 3 horas para plataformas de mídia social removerem conteúdo gerado por IA e deepfakes

A Índia direcionou plataformas de mídia social a rotular claramente todo o conteúdo gerado por IA e garantir que esse material sintético contenha identificadores incorporados, de acordo com uma ordem oficial.

Medidas de Aplicação Mais Rigorosas

O governo estabeleceu um prazo de três horas para que as empresas de mídia social removam conteúdo gerado por IA ou deepfake assim que for sinalizado pelo governo ou por ordem de um tribunal.

As plataformas também foram proibidas de permitir a remoção ou supressão de rótulos de IA ou metadados associados uma vez que tenham sido aplicados.

Requisitos de Detecção e Prevenção

Para combater o uso indevido, as empresas deverão implementar ferramentas automatizadas para detectar e prevenir a circulação de conteúdo gerado por IA que seja ilegal, explorativo sexualmente ou enganoso.

Além disso, as plataformas precisam alertar regularmente os usuários sobre as consequências de violar as regras relacionadas ao uso indevido de IA, com avisos a serem emitidos pelo menos uma vez a cada três meses.

Contexto e Diretrizes Recentes

As diretrizes mais recentes surgem em meio a crescentes preocupações sobre a disseminação de deepfakes baseados em IA online e se baseiam em emendas propostas no mês anterior pelo Ministério da Eletrônica e Tecnologia da Informação.

As regras propostas buscam obrigar a divulgação pelos usuários ao postar conteúdo gerado ou modificado por IA e exigem que as plataformas adotem tecnologia para verificar tais declarações.

As plataformas de mídia social já implementaram recursos permitindo que os usuários rotulem certos conteúdos como gerados ou modificados usando inteligência artificial. O foco inicial do esforço de aplicação do governo está nas plataformas intermediárias de mídia social com cinco milhões ou mais usuários registrados.

Atualmente, algumas plataformas exigem que os criadores divulguem conteúdo “significativamente alterado” ou gerado sinteticamente em casos específicos, incluindo vídeos que fazem uma pessoa real parecer dizer ou fazer algo que não fez, alterando filmagens de eventos ou locais reais ou criando cenas realistas que nunca ocorreram.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...