IA na Publicidade Política: Leis Estaduais e Riscos de Conformidade
Os estados estão adotando suas próprias leis sobre o uso de IA em anúncios políticos, criando novas obrigações para campanhas, comitês, fornecedores e plataformas que operam em diferentes jurisdições. A maioria dessas legislações foca em duas áreas principais: a exigência de isenções de responsabilidade ou divulgações quando conteúdos sintéticos são utilizados e a limitação de sua distribuição próxima às eleições.
Consequências da Não Conformidade
A não conformidade pode resultar em consequências reais, incluindo responsabilidade civil ou criminal, demandas de remoção e danos à reputação. Anunciantes políticos, fornecedores e plataformas devem gerenciar proativamente os riscos e se adaptar rapidamente à medida que a execução evolui.
Desafios Constitucionais
Essas leis já estão enfrentando desafios constitucionais, e litígios iniciais e decisões judiciais mostram que o cenário é instável e provavelmente mudará. Os governos estaduais estão avançando mais rápido do que o governo federal para regular como a inteligência artificial pode ser utilizada na publicidade política, reformulando as práticas de campanha e criando desafios de conformidade para candidatos, comitês políticos, grupos de advocacy, fornecedores de mídia e plataformas online.
Exemplos de Legislações Estaduais
Embora as abordagens variem, a maioria dos estados se concentra em dois aspectos: a exigência de divulgações quando anúncios contêm conteúdo gerado por IA e a restrição ou proibição da distribuição de conteúdo sintético próximo das eleições. Por exemplo:
- Texas proíbe a publicação de vídeos deepfake destinados a influenciar eleitores dentro de 30 dias de uma eleição.
- Michigan exige isenções para chamadas robocalls e anúncios políticos criados com IA generativa.
- Utah exige que a mídia sintética destinada a influenciar eleitores inclua tanto uma isenção quanto uma proveniência de conteúdo digital resistente a adulterações.
Ambiente Legal Instável
Essas leis estão sendo testadas, e o ambiente legal permanece instável. Em Minnesota, um desafio à proibição de deepfakes do estado levantou preocupações sobre a Primeira e a Décima Quarta Emenda e clareza. Na Califórnia, uma lei focada em plataformas destinada a restringir conteúdo deepfake gerado por IA foi derrubada em tribunal federal em agosto deste ano. Essas disputas afetarão não apenas a sobrevivência das leis atuais sob escrutínio judicial, mas também a forma como outros estados perseguem medidas semelhantes.
Implicações para Anunciantes
O resultado é um mosaico de obrigações que anunciantes, fornecedores e plataformas devem navegar cuidadosamente. As implicações são significativas. Essas leis podem ditar a redação e a colocação de isenções, impor deveres de remoção ou rotulagem e, em alguns casos, criar responsabilidade criminal ou civil. Anunciantes precisarão construir sistemas de conformidade que levem em conta os requisitos de cada estado, e fornecedores que produzem conteúdo criativo podem precisar certificar se ferramentas de IA foram utilizadas. As plataformas poderão ser solicitadas a rotular, remover ou arquivar material gerado por IA à medida que as eleições se aproximam.
Com reguladores, litigantes e a mídia observando de perto, organizações que anunciam em vários estados precisarão de políticas proativas para gerenciar riscos e evitar disputas custosas.