Reguladores Internacionais Definem Limites para Imagens Explícitas Geradas por IA
Em uma única semana, reguladores de três continentes tomaram medidas contra plataformas de IA capazes de gerar imagens explícitas. O regulador de mídia do Reino Unido abriu uma investigação formal. Malásia e Indonésia bloquearam completamente o acesso a uma ferramenta de geração de imagens por IA — os primeiros países a fazê-lo. Três senadores dos EUA pediram que Apple e Google removam um aplicativo de IA de suas lojas de aplicativos. A mensagem é clara: o conteúdo sexualmente explícito gerado por IA — especialmente envolvendo menores — se tornou um gatilho universal para a aplicação da lei.
Surge uma Linha Vermelha
As ações de fiscalização compartilham um fio condutor comum: sistemas de IA que podem gerar imagens íntimas não consensuais ou conteúdo que retrata menores. Ao contrário dos debates sobre viés de IA ou transparência algorítmica, esta não é uma área onde os reguladores estão explorando. Eles estão agindo rapidamente e com um alinhamento internacional incomum.
Esse padrão acompanha desenvolvimentos internos. A Lei de Governança Responsável de IA do Texas, que entrou em vigor em 1 de janeiro de 2026, proíbe explicitamente sistemas de IA desenvolvidos com a intenção de criar material de abuso sexual infantil ou conteúdo deepfake explícito envolvendo menores. O Reino Unido está se movendo para criminalizar aplicativos de “nudificação”. Malásia e Indonésia não esperaram novas legislações — simplesmente bloquearam o acesso com base em autoridade existente.
A teoria de aplicação é direta: as leis existentes de proteção ao consumidor, segurança infantil e obscenidade se aplicam ao conteúdo gerado por IA assim como se aplicam ao conteúdo criado por humanos. Os reguladores não estão esperando por estatutos específicos sobre IA.
Implicações para os Desenvolvedores
Organizações que implementam capacidades de geração de imagens por IA — seja em produtos voltados ao cliente ou ferramentas internas — podem querer avaliar sua exposição agora. A onda de fiscalização cria várias considerações concretas:
- Revisão de políticas de conteúdo. Se sua organização utiliza ou oferece geração de imagens por IA, as políticas de uso aceitável podem precisar proibir explicitamente a geração de imagens íntimas não consensuais e qualquer conteúdo que retrate menores em contextos sexuais. As políticas são mais eficazes quando são tecnicamente aplicadas, não apenas contratuais.
- Verificação de idade. Múltiplas ações de fiscalização citam a inadequação da verificação de idade como um ponto de falha. Organizações podem querer avaliar se seus mecanismos de verificação atuais são suficientes, especialmente para aplicações voltadas ao consumidor.
- Monitoramento de saída. Confiar apenas na filtragem de entrada é insuficiente. A investigação do Reino Unido citou especificamente preocupações sobre as saídas, não apenas os prompts. Organizações podem querer considerar se têm visibilidade sobre o que suas ferramentas de IA realmente geram.
- Devida diligência com fornecedores. Para organizações que utilizam APIs ou plataformas de geração de imagens por IA de terceiros, as práticas de segurança de conteúdo do fornecedor agora são uma consideração material. Os termos do contrato podem precisar abordar a conformidade com a política de conteúdo, direitos de auditoria e indenização para execução regulatória.
Expectativa de Continuação do Movimento
A coordenação internacional é notável. Os requisitos de transparência da Lei de IA da UE para conteúdos gerados por IA entrarão em vigor em agosto de 2026, incluindo obrigações de marcação e rotulagem. A Lei de Segurança Online do Reino Unido já impõe deveres às plataformas que hospedam conteúdo gerado por usuários. Os estados dos EUA continuam a avançar com legislações específicas sobre IA, com os requisitos de transparência da Califórnia já em vigor.
Para os conselheiros jurídicos internos, a conclusão prática é que a geração de imagens explícitas por IA — especialmente envolvendo menores — não é uma área cinzenta. É uma prioridade de aplicação em várias jurisdições. Organizações que implementam ferramentas de geração de imagens por IA podem não querer esperar por uma intimação ou ordem de bloqueio para avaliar seus controles.