AI Office Publica Seu Primeiro Código de Prática sobre a Transparência de Conteúdo Gerado por IA
O escritório de IA da UE publicou seu primeiro rascunho do Código de prática sobre a transparência do conteúdo gerado por IA, fornecendo diretrizes voluntárias para marcar e rotular a saída de IA (áudio, imagem, vídeo ou texto), garantindo que os usuários saibam quando o conteúdo é feito ou manipulado por IA, em aplicação das obrigações encontradas no artigo 50 da Lei de IA, que se tornará aplicável em agosto de 2026.
Obrigações dos Fornecedores de Sistemas de IA
Marcação: Os fornecedores de sistemas de IA devem garantir que as saídas sejam marcadas em um formato legível por máquinas e detectáveis como geradas ou manipuladas artificialmente. O conteúdo gerado ou manipulado por IA deve ser marcado com uma marca d’água imperceptível.
As marcas no conteúdo gerado por IA devem ser preservadas e não alteradas quando tal conteúdo é utilizado como entrada e posteriormente transformado.
Detecção: Para tornar as saídas detectáveis, os fornecedores de sistemas de IA devem possibilitar a detecção por usuários e outras partes interessadas. Eles devem fornecer, gratuitamente, uma interface ou um “detector” publicamente disponível para verificar se um conteúdo foi gerado ou manipulado por seus sistemas de IA. Os fornecedores devem manter esses mecanismos de detecção durante todo o ciclo de vida do sistema e do modelo.
Os fornecedores de sistemas de IA são convidados a implementar mecanismos de detecção forense que não dependam da presença de marcação ativa de IA.
As soluções técnicas promovidas pelos fornecedores devem ser eficazes (computacionalmente eficientes), de baixo custo, garantindo aplicação em tempo real sem comprometer a qualidade do conteúdo gerado, interoperáveis, robustas (as técnicas de marcação devem resistir a alterações comuns, como recortes, compressão, mudanças de resolução ou alteração de formato) e confiáveis.
Obrigações dos Implementadores de Sistemas de IA
As obrigações dos implementadores são complementares às soluções técnicas implementadas pelos fornecedores, contribuindo para aumentar a transparência ao longo da cadeia de valor da IA.
Os implementadores de um sistema de IA que gera ou manipula texto publicado com o propósito de informar o público sobre questões de interesse (a menos que um humano tenha revisado a publicação do texto e uma pessoa natural ou jurídica tenha assumido a responsabilidade editorial) ou que gera ou manipula áudio, imagem ou vídeo (deepfake) devem divulgar que o conteúdo foi gerado ou manipulado por IA.
Os implementadores deverão identificar o conteúdo gerado e manipulado por IA colocando um ícone comum em um local visível e consistente. Este ícone ainda não foi desenvolvido e, até que seja, os implementadores podem usar um ícone provisório para apoiar a divulgação consistente composto por um acrônimo de duas letras referente à inteligência artificial.
Medidas Específicas para Divulgação de Deepfakes
Para vídeos deepfake em tempo real, os implementadores exibirão o ícone de maneira não intrusiva consistentemente durante a exposição, quando viável. Além disso, eles inserirão uma isenção no início da exposição que explica que este conteúdo exibe deepfake.
Para vídeos deepfake não em tempo real, os implementadores podem colocar uma isenção no início da exposição ou colocar o ícone de maneira consistente durante a exposição em um local fixo apropriado.
Quanto ao conteúdo deepfake que faz parte de trabalhos ou programas artisticamente evidentes, criativos, satíricos ou fictícios, os implementadores podem exibir o ícone por pelo menos cinco segundos. Para vídeos que fazem parte de trabalhos artisticamente evidentes, o ícone deve aparecer por um “tempo suficiente” sem mais precisão.
Para imagens deepfake, os signatários colocarão o ícone comum consistentemente em qualquer exposição em um local fixo.
Deepfakes de áudio incluirão uma breve isenção audível, em linguagem natural simples, do conteúdo divulgando a origem artificial do áudio deepfake (apenas no início do conteúdo se for mais curto que 30 segundos e repetidamente para formatos mais longos). Para conteúdo deepfake que faz parte de trabalhos artisticamente evidentes, uma isenção audível não intrusiva deverá ser inserida no mais tardar no momento da primeira exposição, sem necessidade de repetição.
Medidas Específicas para Texto Gerado ou Manipulado por IA
Para texto gerado ou manipulado por IA publicado com o propósito de informar o público sobre questões de interesse público, o ícone deve ser exibido em uma posição fixa, clara e distinguível. Este local fixo pode incluir, mas não se limita a, colocar o ícone no topo do texto, ao lado do texto, no colofão ou após a frase final do texto.
Isenção: Devido à generalidade desta atualização, as informações aqui fornecidas podem não ser aplicáveis em todas as situações e não devem ser utilizadas sem aconselhamento jurídico específico baseado em situações particulares.