Construindo Confiança em Mídias Sintéticas com Governança Responsável de IA

Construindo Confiança na Mídia Sintética Através da Governança Responsável de IA

A confiança nos ecossistemas de informação pública é crucial para o debate democrático e o crescimento socioeconômico. Embora a mídia digital tenha expandido o acesso à informação, também tem possibilitado a disseminação de desinformação, que está sendo complicada pela IA generativa. A mídia sintética produzida com IA generativa, incluindo deepfakes, pode ser utilizada para fins construtivos em áreas como educação e entretenimento, mas o uso indevido, como a criação de conteúdo íntimo não consensual ou a disseminação de desinformação, levanta preocupações significativas.

Diferentemente da desinformação tradicional, a mídia sintética muitas vezes parece convincente e real, sendo mais difícil de identificar. Estudos mostram que muitas pessoas percebem a mídia falsa gerada por IA como genuína. O Fórum Econômico Mundial alerta que as falsidades impulsionadas por IA, que podem erodir a democracia e aprofundar a polarização social, são um risco imediato para a economia global. A Índia é mais vulnerável a isso devido à baixa literacia digital e à diminuição da legitimidade da mídia tradicional.

Regulação da Mídia Sintética

A regulação destinada a abordar os danos da mídia sintética está evoluindo globalmente. A Lei de IA da União Europeia classifica os deepfakes como uma categoria de “risco limitado”, exigindo divulgações de transparência. Nos Estados Unidos, foram propostas legislações que visam questões específicas, como o DEFIANCE Act para deepfakes explícitos não consensuais e o No AI FRAUD Act para proteger likenesses pessoais. A Take It Down Act, que foi assinada pelo presidente Donald Trump, visa garantir a remoção de mídia sintética íntima não consensual. A Lei de Segurança Online do Reino Unido criminaliza a criação de deepfakes íntimos e impõe obrigações às plataformas de mídia social. A MeitY da Índia também emitiu um aviso para rotular deepfakes.

Confiança, Privacidade e Responsabilidade

As regulamentações emergentes visam abordar os danos da mídia sintética, focando em medidas como remoção de plataformas de mídia social e identificação de conteúdo sintético. Embora isso seja um passo na direção certa, essas medidas não abordam a criação de mídia sintética maliciosa e seus danos associados. Mesmo quando a mídia é claramente rotulada como artificial, ela ainda pode causar danos reais. Por exemplo, uma mulher retratada em conteúdo pornográfico AI-gerado não consensual pode ainda experimentar vergonha, objetificação sexual e angústia, mesmo que a mídia inclua um aviso de que é sintética.

Confiar apenas em ferramentas de rotulação enfrenta múltiplos desafios operacionais. Primeiramente, as ferramentas de rotulação muitas vezes carecem de precisão. Isso cria um paradoxo: rótulos imprecisos podem legitimar mídia prejudicial, enquanto conteúdo não rotulado pode parecer confiável. Além disso, os usuários podem não perceber edições básicas de IA, como correção de cores, como manipulação, enquanto as opiniões diferem sobre mudanças mais substanciais.

Reimaginando a Responsabilidade

A governança da mídia sintética deve ser contextual, pois a legalidade e a adequação do conteúdo gerado por IA muitas vezes dependem de como e onde é utilizado. Um precedente de um caso não pode ser aplicado indiscriminadamente a todas as situações. Por exemplo, um professor que usa IA generativa para criar mídia sintética para uma lição de história educacional pode não estar agindo ilegalmente, enquanto alguém que usa IA generativa para disseminar discurso que incita violência pode enfrentar consequências muito mais sérias.

Um framework regulatório sensível ao contexto exigiria o desenvolvimento de classificações de risco baseadas em evidências e princípios de dano através de processos colaborativos. Com base nessas classificações, códigos e padrões devem ser criados e integrados em todo o ciclo de vida do sistema de IA.

Desenvolvendo um Framework Colaborativo

Confiar apenas em compromissos voluntários cria problemas significativos, pois falha em estabelecer obrigações vinculativas e deixa as operações dos sistemas de IA opacas. O Instituto de Segurança da IA da Índia deve desempenhar um papel ativo em facilitar um processo colaborativo para a governança de IA generativa, envolvendo a sociedade civil, acadêmicos, indústria e especialistas. O instituto deve conduzir avaliações empíricas de modelos e sistemas de IA para desenvolver padrões de segurança e estabelecer testes de benchmark focados em explicabilidade, interpretabilidade e responsabilidade.

Além disso, a Índia deve empoderar seu instituto não apenas para avaliar as implicações dos modelos e sistemas de IA localmente, mas também para se envolver ativamente em uma rede global de institutos de segurança de IA. Essa abordagem coordenada globalmente forneceria indicações precoces de ameaças emergentes e apoiaria uma governança adaptativa e sensível ao contexto no cenário de IA generativa que evolui rapidamente.

Com a diversidade das aplicações da mídia sintética, de entretenimento à desinformação política, é essencial definir claramente os usos permissíveis e impermissíveis em colaboração com as partes interessadas relevantes.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...