AI Transparency: Debate sobre Intenção Deceitosa
Regras propostas para rotulagem de deepfakes gerados por IA, que estão sendo elaboradas em um código de transparência vinculado à Lei de IA da União Europeia, estão dividindo especialistas envolvidos no processo de redação.
De acordo com a nova legislação da UE, as empresas devem garantir que o conteúdo gerado por IA, como imagens, vídeos e áudios, seja marcado, revelando o papel da IA em sua criação. Se um sistema de IA for utilizado para criar um deepfake, como um vídeo que aparentemente mostra uma pessoa real falando, a ideia é que ele deve ser rotulado como sintético para evitar o risco de engano.
Desafios na Rotulagem
Embora o princípio pareça simples, elaborar regras claras para tal rotulagem é repleto de decisões delicadas. Um conflito está surgindo entre partes interessadas da indústria e grupos da sociedade civil sobre onde a UE deve traçar a linha ao rotular conteúdo que é aprimorado ou gerado por IA. O objetivo do código de prática é fornecer às empresas conselhos práticos sobre como cumprir as regras de transparência da Lei de IA, que estavam previstas para entrar em vigor em agosto de 2026.
Um primeiro rascunho do código, publicado antes do Natal, parece favorecer a direção da sociedade civil, com especialistas independentes apoiando a rotulagem de IA até mesmo para edições “aparentemente pequenas” que alteram o contexto do conteúdo, como o uso de ferramentas de IA para remover ruídos de uma gravação de áudio.
Fontes da indústria expressaram oposição a tais regras abrangentes de rotulagem, argumentando que levaria a rótulos aparecendo em toda parte, diluindo seu efeito de advertência. Setores específicos, como o de publicidade, poderiam ser especialmente afetados.
Considerações sobre a Intenção Deceitosa
A questão central nas discussões recentes sobre o código tem sido se a “intenção deceitosa” deve ser levada em conta ao determinar se o conteúdo deve ser rotulado. A própria Lei de IA menciona apenas de forma ampla o conteúdo “gerado ou manipulado artificialmente”.
O código de transparência em elaboração é a segunda diretriz da Lei de IA, seguindo o código altamente lobbyado para modelos de IA de uso geral (GPAIs). Assim como no código GPAI, o código final será voluntário: as empresas poderão escolher se desejam aderir. No entanto, aquelas que o fizerem provavelmente serão vistas como alinhadas às melhores práticas, recebendo pontos positivos em qualquer avaliação formal de conformidade com a Lei de IA.
Próximos Passos e Prazos
Independentemente da forma final do código de transparência, as empresas provavelmente terão mais tempo para cumprir as regras de rotulagem da Lei de IA: a Comissão propôs adiar sua aplicação para fevereiro de 2027 para sistemas de IA lançados antes de agosto de 2026.
Além disso, a resposta final às questões levantadas nas discussões entre as partes interessadas sobre o código de transparência pode precisar esperar por um documento separado a ser produzido pela Comissão. Em teoria, o código de transparência visa fornecer detalhes práticos sobre a implementação das regras da UE – a Comissão está trabalhando em diretrizes separadas abordando o escopo e as definições legais das regras.
Esse documento da Comissão pode esclarecer certos termos-chave pertinentes às discussões sobre o código de transparência, mas é esperado apenas para junho, por volta do momento em que o código de prática deve ser finalizado.