Abordagem de Governança para a Segurança no Uso da IA

Uma Abordagem de Governança “Segurança por Design” para Abordar Dano Online Facilitado por IA

A rápida expansão da inteligência artificial (IA) está transformando o cenário digital, amplificando danos online existentes e introduzindo novos e mais complexos riscos à segurança online. A IA generativa agora permite que indivíduos, utilizando dispositivos de consumo sem experiência técnica, criem conteúdo sintético que é indistinguível do conteúdo autêntico. Um relatório da Netsafe e do AI Asia Pacific Institute destaca as implicações emergentes de segurança online da IA, apontando para o aumento dos deepfakes como um exemplo claro. O relatório detalha como os deepfakes são usados para espalhar falsidades, criar conteúdo sexualizado e facilitar comunicações personalizadas que visam públicos com mensagens maliciosas em larga escala.

Os deepfakes tornaram-se uma ferramenta cada vez mais comum para atores maliciosos infligirem danos online e distorcerem o panorama informativo. No primeiro trimestre de 2025, fraudes com deepfake que impersonaram figuras públicas, indivíduos privados e prestadores de serviços enganaram as pessoas, resultando em perdas globais de US$200 milhões. Além disso, os deepfakes foram utilizados para criar conteúdo pornográfico que visa desproporcionalmente mulheres, jovens e crianças, facilitando a sextorsão e o grooming, e contribuindo para incidentes de automutilação e severo sofrimento emocional.

Desinformação e Deepfakes

O conteúdo gerado por IA também está sendo utilizado para fortalecer campanhas de desinformação e falsidade que visam influenciar a opinião pública e alterar resultados eleitorais. Na Romênia, preocupações sobre interferência estrangeira envolvendo desinformação impulsionada por IA levaram à anulação da eleição presidencial de 2024. Os deepfakes também estão sendo usados para promover o extremismo, aparecendo em propaganda de radicalização e campanhas de recrutamento.

O uso prejudicial dos deepfakes alimenta a crescente desconfiança pública em relação aos meios digitais e às notícias, encorajando maus atores a deslegitimar e desacreditar conteúdo autêntico como sendo falso, fenômeno conhecido como “dividendo do mentiroso”. Isso foi observado em discussões online sobre as guerras da Rússia-Ucrânia e Israel-Palestina, onde imagens de guerra genuínas foram questionadas como geradas por IA.

Respostas e Intervenções

Diante da escala e velocidade de novas formas de criação e distribuição de conteúdo digital, seria inviável que humanos moderassem manualmente, mas a IA pode ser utilizada para detectar e remover conteúdo prejudicial — seja gerado por humanos ou por IA. Por exemplo, o Ministério de Comunicação e Informação da Indonésia está utilizando IA para ajudar a identificar conteúdo prejudicial nas plataformas de mídia social e motores de busca antes de solicitar que os provedores de conteúdo removam ou bloqueiem. No entanto, a IA não é uma solução completa, pois luta com contexto e nuance, e é propensa a falsos positivos ao detectar conteúdo gerado por IA.

Um Enfoque Holístico para a Governança de IA

As estruturas de governança de IA frequentemente se concentram nos desenvolvedores e implantadores de sistemas de IA, enfatizando suas obrigações de mitigação de riscos. No entanto, os danos online são frequentemente impulsionados pelo uso irresponsável da tecnologia e comportamentos dos usuários finais. É necessário um enfoque de governança “segurança por design” que estabeleça intervenções em diferentes estágios do ciclo de vida do dano. Essa abordagem pode ser estruturada em um framework de “Preparar-Curb-Responder”.

O estágio “Preparar” se concentra na redução da suscetibilidade dos usuários finais a danos online através de esforços de alfabetização em mídia digital para promover o uso informado da internet. O estágio “Curb” exige intervenções preventivas, visando limitar a criação e disseminação de conteúdo digital prejudicial, como filtros de conteúdo e protocolos de marca d’água que rastreiam a origem do conteúdo gerado por IA. O estágio “Responder” utiliza medidas reativas para remediar os efeitos de conteúdo prejudicial, como aconselhamento em crises e vias de reclamação para buscar ações legais e ordens de remoção de conteúdo.

Cooperação Internacional e Resposta Regional

A realização de intervenções políticas nacionais é crucial para abordar os impactos locais dos danos online facilitados por IA, mas uma governança e ação internacional coordenadas são necessárias para lidar com seu alcance e origem transnacionais. Fóruns como a Rede Global de Reguladores de Segurança Online e a Rede Internacional de Institutos de Segurança em IA podem possibilitar a colaboração global na interseção de IA e segurança online.

Na região do Pacífico, a aplicação do framework “Preparar-Curb-Responder” é especialmente relevante, visto que a região está nas primeiras fases de adoção de IA e começando a avançar com sua infraestrutura digital. A estratégia de 2050 do Fórum das Ilhas do Pacífico enfatiza a necessidade de salvaguardas que proporcionem proteção culturalmente sensível contra danos online, especialmente para as mulheres do Pacífico, que enfrentam alguns dos níveis mais altos de violência de gênero globalmente.

Por fim, o Fiji está liderando esforços para combater os danos à segurança online facilitados pela IA, alinhando suas medidas com o framework “Preparar-Curb-Responder”, enquanto a ASEAN está publicando orientações sobre governança e ética de IA, abordando os riscos de IA generativa, particularmente em relação a deepfakes, fraudes e desinformação.

Para cultivar um mundo digital mais seguro, será necessário desenvolver estruturas de governança que possam se adaptar à constante evolução da IA, reconhecendo que salvaguardas técnicas direcionadas a modelos de IA não são uma solução completa. Ao alinhar a conscientização pública, ferramentas tecnológicas e medidas políticas, a IA pode ser utilizada de forma mais eficaz para abordar os riscos que cria e fortalecer a capacidade dos países de combater danos online.

More Insights

A Governança Privada da IA como Caminho para a Inovação

A governança privada e as "caixas de areia" regulatórias são a chave para a democracia, eficiência e inovação na regulação da inteligência artificial (IA). O setor privado não apenas tem a capacidade...

Governança de IA no Egito para um Desenvolvimento Sustentável

A Ministra de Planejamento e Desenvolvimento Econômico do Egito, Rania Al-Mashat, destacou a necessidade de estruturas de governança robustas para garantir que a inteligência artificial e as...

Governança Urgente para Interações de IA Multi-Agente

Este mês, a empresa de transporte marítimo italiana Grimaldi Group lançou seu novo transportador de 9.000 unidades, o Grande Tianjin, em sua viagem inaugural, transportando veículos elétricos da China...

Abordagem de Governança para a Segurança no Uso da IA

A rápida expansão da inteligência artificial (IA) está remodelando o ambiente digital, amplificando danos online existentes e introduzindo novos riscos de segurança. Um relatório destaca as...

Críticas da Microsoft à Proposta de Trump sobre Regulação de IA

O cientista-chefe da Microsoft criticou a proposta de Donald Trump de proibir a regulamentação de inteligência artificial em nível estadual, argumentando que tais restrições podem retardar o...