Adoção de IA na Publicidade: Preparação para um Futuro Responsável

A Adoção de IA Está Aumentando na Publicidade, mas a Indústria Está Preparada para uma IA Responsável?

A inteligência artificial (IA) tornou-se parte regular do marketing e da publicidade: mais da metade dos profissionais de marketing já utilizam GenAI para criação de conteúdo e segmentação de público, enquanto quase todos planejam expandir o uso de IA no próximo ano, especialmente para desenvolvimento de conteúdo e engajamento de público. No entanto, enquanto a adoção está acelerando, as salvaguardas não estão acompanhando. Mais de 70% dos profissionais de marketing encontraram um incidente relacionado à IA em seus esforços publicitários, incluindo alucinações, viés ou conteúdo fora da marca, mas menos de 35% planejam aumentar o investimento em governança de IA ou supervisão da integridade da marca nos próximos 12 meses.

Essa pesquisa, realizada em parceria com a Aymara, entrevistou 125 executivos da indústria publicitária nos EUA. Os dados pintam um quadro alarmante: a adoção de IA, e, portanto, os desafios relacionados à IA, estão superando as salvaguardas. E os líderes da indústria estão soando o alarme.

A IA Está em Todo Lugar no Marketing e Continua Crescendo

A IA agora faz parte do conjunto de ferramentas de marketing em geral. Mais da metade dos profissionais de marketing já a utilizam para criação de conteúdo criativo, segmentação de público, suporte ao cliente, e quase a mesma quantidade aplica-a em análises preditivas.

O uso está previsto para crescer: 58% planejam aumentar a IA para geração criativa no próximo ano, juntamente com o uso expandido em chatbots, segmentação e previsões. A IA não é apenas uma tendência, mas está rapidamente se tornando central na forma como o marketing é realizado.

Preocupações com a IA são Altas: Incidentes Já Estão Acontecendo em uma Taxa Alarmante

Os profissionais de marketing estão cientes de que há riscos associados à publicidade gerada por IA. As principais preocupações incluem desinformação e deepfakes, perda de controle criativo e riscos à integridade da marca devido a saídas ofensivas ou prejudiciais. Muitos também se preocupam com a confiança do consumidor, com 37% temendo que o público desconfie de anúncios feitos por IA. Outras preocupações incluem viés e justiça, conformidade regulatória e o desafio de monitorar conteúdo de IA em grande escala.

A principal conclusão: a IA pode apresentar sérios riscos éticos e de qualidade, e os profissionais de marketing sabem que esses problemas podem prejudicar a confiança e a reputação da marca. Por isso, mais de 60% apoiam a rotulagem de anúncios gerados por IA, com apenas 15% se opondo — sinalizando uma forte demanda por transparência como salvaguarda de confiança.

Esses não são riscos futuros. Os problemas relacionados à IA já estão afetando as campanhas publicitárias. Na pesquisa, 70% dos profissionais de marketing relataram pelo menos um incidente de IA. Os problemas mais comuns incluíram saídas alucinatórias (conteúdo gerado por IA que era factualmente incorreto, sem sentido ou fabricado), conteúdo tendencioso ou inadequado, e material fora da marca ou ofensivo. Outros relataram perda de controle criativo e falhas na conformidade regulatória.

As consequências foram significativas: 40% tiveram que pausar ou retirar anúncios, mais de um terço lidou com danos à marca ou problemas de relações públicas, e quase 30% tiveram que realizar auditorias internas. Alguns relataram orçamentos desperdiçados, reclamações de clientes ou preocupações legais. Apenas 6% afirmaram que o impacto foi mínimo.

Salvaguardas Irregulares e uma Falsa Sensação de Segurança

Apesar dos riscos crescentes, a supervisão de IA permanece inconsistente. A maioria das equipes depende de revisão humana e listas de verificação de integridade da marca, que são importantes, mas passos básicos. Práticas mais avançadas são muito menos comuns, como consultar especialistas externos em ética de IA, realizar testes de equipe vermelha e usar ferramentas de avaliação automatizadas. Alarmantemente, 10% dos entrevistados não fazem nada ou não têm certeza de como gerenciam os riscos da IA.

No entanto, a confiança permanece alta. Quase 90% afirmam estar preparados para identificar problemas de IA antes do lançamento. Isso pode refletir confiança nos fluxos de trabalho existentes, mas, dado que 70% já tiveram incidentes, também sugere uma falsa sensação de segurança.

A realidade: apenas um terço das marcas, agências e publicadores adotaram ou planejam adotar quaisquer ferramentas de governança formal, deixando grandes lacunas. Há uma necessidade e uma oportunidade forte para salvaguardas mais estruturadas e escaláveis em toda a indústria, incluindo sistemas que sinalizem risco, garantam alinhamento e protejam a confiança da marca antes que as campanhas cheguem ao público.

Indústria Exige Padrões, Ferramentas e Transparência

Os profissionais de marketing estão pedindo uma governança de IA mais forte. Quando perguntados sobre o que é necessário para manter a IA na publicidade segura e eficaz, as principais prioridades incluíram auditorias regulares de IA para viés e integridade, transparência na tomada de decisões de IA, proteções de privacidade de dados e salvaguardas de propriedade intelectual para conteúdo criado por IA.

Em resumo, os profissionais de marketing querem ferramentas, políticas e padrões para fechar as lacunas reais de governança. Apenas 6% acreditam que as salvaguardas atuais são suficientes. Esta é uma oportunidade para a indústria definir sistemas, ferramentas e benchmarks que possam garantir que as saídas de IA sejam seguras, precisas e alinhadas com os valores da marca.

Responsabilidade e Liderança: Quem Está Cuidando da IA?

Um dos principais desafios na governança de IA é a propriedade. Quando perguntados sobre quem lidera esses esforços, as respostas variam, com a maioria mencionando a liderança executiva ou uma força-tarefa dedicada de IA, as equipes de marketing/criativas ou equipes legais/compliance liderando. Alguns também confiam em equipes de ciência de dados ou MarTech. Apenas 17% das organizações atualmente utilizam um parceiro externo para a governança de IA, sugerindo que a maioria está construindo capacidades internas. Mas nem todos têm uma responsabilidade definitiva: 14% dizem que ninguém é responsável pela governança de IA, e outros não têm certeza de quem é.

Sem uma propriedade estruturada, os riscos podem passar despercebidos. À medida que as empresas escalonam o GenAI, é fundamental definir quem é responsável, seja um diretor de IA, um conselho multifuncional ou uma equipe dedicada. Essa clareza é essencial para passar de boas intenções a soluções acessíveis que permitam supervisão, testes e aplicação, independentemente da estrutura organizacional. Uma vez definidas as funções, as organizações precisam garantir que seus parceiros de terceiros estejam cientes de quem é responsável para permitir uma melhor colaboração, fortalecer as relações da indústria e ajudar a mitigar riscos compartilhados.

Suporte de Terceiros para Governança

Embora a maioria das empresas atualmente gerencie a governança de IA internamente, há um forte interesse em suporte externo. Quando perguntados se considerariam uma solução de terceiros para avaliar riscos como alucinações, viés ou conteúdo fora da marca, mais de 90% disseram que sim.

Muitos veem a experiência externa como uma rede de segurança valiosa. Um profissional de marketing afirmou que isso ofereceria “tranquilidade”, enquanto outro observou que “reduziria o risco para nossa marca e negócios”. Apenas alguns foram céticos, principalmente devido à confiança em equipes internas ou preocupações com custos. Mas essas opiniões foram raras. Os profissionais de marketing estão abertos e ansiosos por ferramentas e orientações de especialistas para garantir que seu uso de GenAI seja seguro, eficaz e alinhado com os valores da marca. Isso apresenta uma oportunidade oportuna para parcerias com terceiros confiáveis para fortalecer a supervisão de IA em toda a indústria.

Sem Tempo a Perder: Um Chamado à Ação sobre IA Responsável

Esta pesquisa mostra uma indústria se movendo rapidamente em IA — mas ainda construindo as proteções enquanto avança. Os anunciantes estão empolgados com o potencial da IA para conteúdo, segmentação e engajamento. Mas muitos já viram os riscos em primeira mão: desinformação, viés e conteúdo fora da marca que prejudicam a confiança e desperdiçam orçamento.

Os profissionais de marketing estão enviando uma mensagem forte: eles querem ajuda na forma de melhores padrões, ferramentas mais robustas e suporte especializado para usar a IA de maneira responsável. Agora é o momento para ação coletiva. Marcas, agências, publicadores e plataformas têm um papel a desempenhar na formação da governança de IA.

Aqui estão quatro passos para seguir em frente:

  1. Faça da governança de IA uma prioridade. Atribua a responsabilidade, envolva a liderança e estabeleça uma força-tarefa multifuncional se você ainda não tiver uma. Priorize não apenas quem é responsável, mas como a responsabilidade é traduzida em fluxos de trabalho diários, processos de revisão e métodos de avaliação.
  2. Construa suas melhores práticas. Comece com verificações fundamentais como revisão humana, diretrizes de política, testes de viés — e avance para avaliações estruturadas, auditorias automatizadas (com supervisão humana onde apropriado) e monitoramento contínuo que pode escalar com o volume de conteúdo e a complexidade do modelo.
  3. Traga suporte especializado para escalar. Acelere com segurança com especialistas confiáveis e ferramentas de terceiros projetadas para avaliar, testar e certificar conteúdo gerado por IA em grande escala, para que sua equipe possa avançar mais rápido sem aumentar o risco.
  4. Lidere com transparência. Não diga apenas que você usa IA de forma responsável — prove. Construa sistemas que rastreiem como a IA é utilizada, sinalizem riscos e gerem registros prontos para auditoria. Mantenha vigilância sobre justiça, privacidade e ética. A confiança do consumidor depende disso.

Os dados são claros: a IA está indiscutivelmente transformando a publicidade, mas os incidentes já estão ocorrendo, as salvaguardas atuais não estão acompanhando o ritmo, e os profissionais de marketing precisam de melhores soluções. Este não é um problema futuro a ser resolvido, mas sim uma realidade presente que exige ação imediata para desbloquear todo o potencial da IA. Com alguns passos práticos, a IA responsável não é apenas possível – pode se tornar a norma.

More Insights

Inteligência Artificial Responsável: Guia Prático para Desenvolvedores .NET

A era da Inteligência Artificial (IA) está acontecendo agora, com aplicações em setores como bancos e saúde. No entanto, é crucial garantir que os sistemas de IA sejam justos e confiáveis, e para...

A Nova Lei de Transparência em IA da Califórnia

Os legisladores da Califórnia fizeram história ao aprovar uma lei inovadora de transparência em IA focada nos "modelos de fronteira", os sistemas de inteligência artificial mais avançados em...

Quatro Pilares para Sistemas de IA Responsáveis

À medida que a IA generativa transforma a forma como as empresas operam, a implementação de sistemas de IA sem as devidas proteções pode levar a falhas dispendiosas. Os quatro pilares das guardrails...

IA Responsável: Inclusão em Mercados Emergentes

A inteligência artificial está transformando rapidamente o mundo, mas os benefícios não estão chegando a todos de maneira igual, especialmente nos mercados emergentes. Para garantir que a IA funcione...