Domando a IA Generativa: Regulação, Realidade e o Caminho à Frente

A ascensão da IA generativa desbloqueou um potencial criativo sem precedentes, mas também levantou questões críticas sobre regulamentação e responsabilidade. À medida que os algoritmos confundem as linhas entre o conteúdo gerado por humanos e por máquinas, a próxima legislação, como o EU AI Act, visa estabelecer limites claros e garantir a transparência. No entanto, alcançar uma supervisão significativa apresenta um desafio complexo, obrigando-nos a confrontar questões fundamentais sobre como classificamos, detetamos e gerimos realidades criadas artificialmente. A nossa pesquisa investiga as realidades práticas deste cenário em evolução, analisando as práticas atuais e dissecando os obstáculos que impedem uma regulamentação eficaz.

Quais são as principais características do cenário atual dos sistemas de IA generativa?

À medida que a IA generativa continua sua rápida evolução, várias características-chave definem o cenário atual, impactando tanto seu potencial quanto os desafios que ela apresenta.

Principais Insights Tecnológicos

Os modelos de IA generativa, particularmente os sistemas de texto para imagem (TTI), alcançaram um fotorealismo notável, muitas vezes dificultando até mesmo para especialistas distinguir o conteúdo gerado por IA de imagens criadas por humanos. Esse salto de qualidade decorre de avanços em técnicas de aprendizado profundo e da capacidade de aprender com vastos conjuntos de dados não rotulados. Esses modelos analisam padrões nos dados de treinamento para gerar novos conteúdos com características semelhantes.

No entanto, essa capacidade tem um custo significativo. O treinamento desses modelos avançados requer imensos recursos computacionais e acesso a conjuntos de dados massivos. Consequentemente, o desenvolvimento está concentrado entre um seleto grupo de grandes empresas de tecnologia e instituições acadêmicas bem financiadas.

Preocupações Regulatórias e de Conformidade

O AI Act da UE é a iniciativa regulatória mais abrangente até o momento que aborda os riscos apresentados pelo conteúdo gerado por IA. Seus principais requisitos incluem:

  • Marca d’água legível por máquina: Todas as saídas de sistemas de IA generativa devem ser marcadas em um formato legível por máquina, detectável como gerado ou manipulado artificialmente. Interoperabilidade, robustez e confiabilidade são considerações importantes.
  • Divulgações visíveis de deepfakes: Os implementadores de sistemas de IA generativa que criam ou manipulam conteúdo de imagem, áudio ou vídeo constituindo um “deepfake” devem divulgar claramente sua origem artificial. Esta informação deve ser fornecida no momento da primeira interação ou exposição.

O não cumprimento pode resultar em multas substanciais, até € 15 milhões ou 3% do volume de negócios anual global. As regras de transparência do AI Act entrarão em vigor em 1º de agosto de 2026.

Implicações Práticas e Desafios

Apesar das regulamentações iminentes, a implementação de marcas d’água permanece limitada. Uma análise de 50 sistemas de IA generativa amplamente utilizados revela várias tendências preocupantes:

  • Marca d’água inconsistente: A implementação é inconsistente e varia significativamente entre diferentes fornecedores e métodos de implantação.
  • Vulnerabilidade de metadados: A incorporação de metadados é a abordagem mais comum, mas é facilmente removível, prejudicando sua eficácia como um marcador robusto.
  • Foco no sistema de ponta a ponta: As práticas de marcação legíveis por máquina são encontradas principalmente em sistemas de ponta a ponta (sistemas de Categoria 1) e provedores de grande escala (sistemas de Categoria 2). Isso sugere que as grandes organizações estão principalmente preocupadas com a proveniência dos dados ou direitos autorais, não necessariamente com a detecção de “não-verdade”.
  • Evitando marcações visíveis: As marcas d’água visíveis permanecem raras, principalmente devido a preocupações com a experiência do usuário e o impacto potencial nos modelos de negócios. Quando usadas, geralmente se aplicam a todas as imagens geradas, não especificamente a deepfakes, conforme exigido pelo AI Act. A maioria das marcações visíveis também pode ser removida após o pagamento.

Implementar divulgação apropriada para deepfakes apresenta um desafio distinto. Requer um sistema separado, provavelmente baseado em PNL, para classificar prompts como deepfakes. Organizações menores achariam isso difícil e computacionalmente caro de implementar.

O ecossistema também é dominado por alguns grandes players. Muitos provedores de sistema dependem de um punhado de modelos, principalmente da Stability AI, Black Forest Labs e OpenAI. Embora esses provedores de modelo se esforcem para incorporar marcas d’água, essas marcas d’água geralmente são facilmente desativadas ou não são aplicadas consistentemente em sistemas baseados em API. A Hugging Face deve impor requisitos de marca d’água para os modelos de código aberto hospedados por sua plataforma.

O AI Act introduz ambiguidades em relação aos papéis de provedores, implementadores, modelos e sistemas, impactando potencialmente a eficácia da conformidade e dividindo a responsabilidade em toda a complexa cadeia de suprimentos de IA generativa.

Como as obrigações de transparência da Lei de IA da UE se aplicam no contexto da marca d’água e da divulgação de conteúdo gerado por IA?

A Lei de IA da UE exige transparência para o conteúdo gerado por IA por meio de duas medidas principais: incorporação de marcações legíveis por máquina em saídas geradas por IA e divulgação visível da origem artificial de deep fakes gerados por IA. O não cumprimento pode resultar em multas significativas, até 3% do faturamento anual global ou € 15 milhões. Essas regras entrarão em vigor a partir de 1º de agosto de 2026. No entanto, os desafios persistem em torno da aplicação prática, alocação de responsabilidade dentro da cadeia de suprimentos de IA generativa e definições precisas, como a de um “deep fake”.

Principais Obrigações Sob o Artigo 50

O Artigo 50 da Lei de IA da UE aborda especificamente os sistemas de IA generativa, delineando estas obrigações:

  • Marcações legíveis por máquina: Os fornecedores de sistemas de IA generativa devem garantir que as saídas sejam marcadas em um formato legível por máquina, detectável como artificialmente gerado ou manipulado. As soluções técnicas devem ser eficazes, interoperáveis, robustas e confiáveis, dentro da viabilidade técnica e considerando o tipo de conteúdo e os custos de implementação. Técnicas como marcas d’água, identificações de metadados, métodos criptográficos, registro e impressões digitais são listadas como meios potenciais de conformidade.
  • Divulgação visível para deep fakes: Os implementadores de sistemas de IA generativa que geram ou manipulam conteúdo de imagem, áudio ou vídeo que constitua um deep fake devem divulgar que o conteúdo foi artificialmente gerado ou manipulado. Esta informação deve ser fornecida aos indivíduos de forma clara e distinguível em sua interação ou exposição inicial. Isso é normalmente interpretado como uma marca d’água ou rótulo visível diretamente incorporado, e não necessariamente uma mensagem de divulgação separada.

Embora a Lei tenha como alvo sistemas de IA (aplicativos ou ferramentas da web), ela não exige diretamente medidas de transparência para os modelos subjacentes. No entanto, a segunda versão do código de prática para modelos GPAI exige que os modelos de risco sistêmico usem marcas d’água para identificação e relatório de incidentes.

Cenários Práticos e Implicações

Para entender melhor como essas regulamentações se aplicam na prática, considere estes cenários comuns de implantação de IA generativa:

  • Sistemas integrados de ponta a ponta: Organizações que desenvolvem modelos de IA e os integram em seus aplicativos. Essas entidades atuam como fornecedor e implementador, permitindo marca d’água robusta durante o desenvolvimento do modelo. Exemplos são OpenAI e Adobe.
  • Sistemas que usam acesso ao modelo de API: Sistemas que aproveitam APIs de fornecedores de modelos GPAI de grande escala. Esses fornecedores devem confiar em recursos de API existentes ou implementar suas próprias medidas de pós-processamento para marcação e divulgação.
  • Sistemas de código aberto implantados no Hugging Face: Sistemas construídos sobre modelos de código aberto, frequentemente implantados via Hugging Face. Determinar a responsabilidade pela conformidade com a Lei de IA nesses casos é complexo, envolvendo potencialmente o próprio Hugging Face.
  • Sistemas que usam outros modelos (de código aberto) sob sua própria marca registrada: Organizações que implantam modelos de IA sob sua própria marca, potencialmente sem divulgar os modelos subjacentes. Esses fornecedores estão sujeitos a requisitos completos de transparência.

Esses vários cenários destacam as complexidades na atribuição de responsabilidade e na garantia da aplicação consistente dos requisitos de transparência da Lei de IA.

Desafios de Implementação

As distinções estabelecidas pela Lei de IA da UE entre fornecedores, implementadores, modelos e sistemas criam áreas cinzentas que precisam de esclarecimentos.
O ônus da conformidade com os requisitos de marcação legível por máquina e divulgação de deep fakes pode afetar desproporcionalmente os desenvolvedores de aplicativos e sites de pequena escala, pois as organizações maiores e melhor financiadas são normalmente as organizações que desenvolvem e implementam os modelos. A implementação de soluções legíveis por máquina seria melhor realizada na fase de desenvolvimento do modelo. A aplicação de regulamentos no nível do desenvolvedor do modelo seria mais simples, dado o número relativamente pequeno de atores que desenvolvem modelos avançados de imagem.

Quais são as implicações práticas da implementação de marca d’água e dos requisitos de divulgação visível para vários tipos de sistemas de IA generativa?

A Lei de IA da UE exige duas medidas essenciais para as saídas de IA generativa: marcas d’água legíveis por máquina para detecção automatizada e divulgação visível de deep fakes gerados por IA. A não conformidade pode resultar em pesadas multas. No entanto, ambiguidades de aplicação prática existem em torno da alocação de responsabilidade e definições de deep fake.

Principais Implicações da Lei de IA:

  • Requisitos Legais: Até 1º de agosto de 2026, todas as saídas de IA generativa devem ter marcações legíveis por máquina, e os deep fakes devem ser visivelmente divulgados como gerados artificialmente.
  • Riscos de Responsabilidade: Empresas de mídia social como a Meta podem enfrentar responsabilidade sob a Lei de Serviços Digitais da UE por distribuir conteúdo gerado por IA que represente riscos sociais. Isso incentiva provedores maiores a marcar o conteúdo gerado por IA.
  • Risco Financeiro: A não conformidade pode resultar em multas de até 15 milhões de euros ou 3% do faturamento anual global.
  • Colapso do Modelo (Model Collapse): A implementação de marca d’água rigorosa ajuda a mitigar o risco de colapso do modelo, pois os modelos de IA podem se degradar ao serem treinados em conteúdo gerado por IA.

A implementação das regras de transparência da Lei de IA difere entre os cenários de sistemas de IA generativa:

Cenários de Implantação e Implicações:

As responsabilidades pela marca d’água e divulgação nem sempre se encaixam em categorias exatas, mas aqui está uma análise dos cenários comuns:

Cenário 1: Sistemas Integrados de Ponta a Ponta:

  • Provedores que desenvolvem E implementam sistemas de IA (como OpenAI ou Adobe) podem implementar marca d’água robusta durante o desenvolvimento do modelo.
  • Muitos também fornecem acesso à API sem necessariamente estender os recursos de marca d’água, resultando em aplicação inconsistente em toda a cadeia de suprimentos.
  • Gigantes da mídia social nesta categoria também devem considerar as obrigações sob a Lei de Serviços Digitais da UE e a possibilidade de modelos GPAI serem classificados como de alto risco.

Cenário 2: Sistemas que Usam Acesso ao Modelo de API:

  • Provedores aproveitam as APIs de provedores de modelos GPAI de grande escala e devem cumprir a transparência.
  • Eles podem confiar nos recursos integrados que os provedores de modelo oferecem ou implementar suas medidas de pós-processamento. Criar uma solução de marcação visível pode ser difícil se eles quiserem distinguir prompts de deep fake.

Cenário 3: Sistemas (de código aberto) implantados no Hugging Face:

  • Os modelos de código aberto implantados por meio da plataforma Hugging Face enfrentam desafios de requisitos de conformidade.
  • A plataforma oferece uma interface, mas não tem controle sobre o modelo. Isso dificulta determinar quem assume a responsabilidade pela conformidade.

Cenário 4: Sistemas que usam outros modelos (de código aberto) sob sua própria marca registrada:

  • Organizações usam modelos de IA de outras organizações para criar seus próprios produtos sob suas próprias marcas registradas sem aviso adequado. Por causa desse sistema, fica difícil rastrear de onde vieram os modelos de código aberto.
  • Isso torna seu produto sujeito às mesmas obrigações de transparência, já que agora eles implantam seu produto sem divulgar sua origem.

Esses cenários destacam como as linhas tênues entre desenvolvedores, provedores e implantadores complicam a aplicação da Lei de IA. Métodos automatizados de inspeção de conformidade são essenciais à medida que a Lei de IA entra em vigor.

Quais foram as conclusões da análise empírica das práticas de marca d’água e divulgação?

Nossa análise de 50 sistemas de IA generativa amplamente utilizados revela um cenário ainda longe de estar totalmente em conformidade com os próximos regulamentos, como o EU AI Act. Embora a Lei determine marcações legíveis por máquina e divulgações visíveis para determinados conteúdos gerados por IA, a adoção é irregular e a implementação varia amplamente.

Principais Conclusões:

  • Marca d’água legível por máquina limitada: Apenas uma minoria de provedores (18 de 50) atualmente implementa marcação legível por máquina, sendo a incorporação de metadados a técnica mais comum, mas facilmente removível. A marca d’água oculta, uma abordagem mais robusta, é mais rara.
  • Sistemas End-to-End Lideram em Marca d’água: Sistemas integrados end-to-end (Categoria 1), onde a mesma organização desenvolve o modelo e a interface, são mais propensos a implementar marcações legíveis por máquina.
  • Divulgações Visíveis São Raras: Marcas d’água visíveis ou divulgações indicando conteúdo gerado por IA foram encontradas em apenas 8 dos 50 sistemas analisados. Notavelmente, estes eram frequentemente aplicados a todas as imagens geradas, não apenas deep fakes.
  • Desafios com a Detecção de Deep Fake: Restringir as divulgações visíveis a deep fakes apresenta um desafio significativo, particularmente para organizações menores que precisam implementar a classificação de prompt baseada em NLP.
  • Ecossistema Dominado por Poucos Atores: Os provedores de sistema muitas vezes dependem de um punhado de modelos de base de players-chave como Stability AI, Black Forest Labs e OpenAI. As soluções de marca d’água, mesmo quando implementadas por esses provedores principais, não são consistentemente estendidas aos sistemas baseados em API.

Implicações:

Essas descobertas sublinham a necessidade de uma orientação regulatória mais clara e soluções de marca d’água mais robustas e interoperáveis para garantir a aplicação eficaz do EU AI Act e legislação semelhante. A atual dependência de metadados facilmente removíveis e a aplicação inconsistente de marca d’água em toda a cadeia de abastecimento de IA generativa levantam sérias preocupações sobre a capacidade de detectar e rotular o conteúdo gerado por IA de forma eficaz.

Preocupações Regulatórias:

As definições do AI Act de “provedor” e “implantador” no contexto da IA generativa permanecem ambíguas, levando a potenciais lacunas e distribuição irregular dos encargos de conformidade. Desenvolvedores de aplicativos e sites menores podem suportar um fardo desproporcional em comparação com os desenvolvedores de modelos grandes e bem financiados, responsáveis pelos fundamentos da tecnologia.

Ações a serem Tomadas:

  • Priorizar Marca d’água Robusta no Nível do Modelo: Os desenvolvedores de modelos devem implementar marca d’água robusta diretamente na fase de geração para facilitar a implementação para os provedores de sistema downstream e aumentar o custo para os agentes maliciosos removerem essas marcações.
  • Considerar Designação GPAI para Modelos Avançados: A UE e outros órgãos reguladores devem considerar designar os modelos de imagem mais avançados como modelos de IA de Propósito Geral (GPAI) com riscos sistêmicos, exigindo que os desenvolvedores tomem medidas de mitigação proativas, como marca d’água.
  • Utilizar APIs e Termos de Licenciamento para Aplicação: Os desenvolvedores de modelos podem alavancar APIs e termos de licenciamento para impor o uso de marca d’água por provedores de sistema downstream.
  • Desenvolver Ferramentas Automatizadas de Inspeção de Conformidade: À medida que o número de sistemas de IA generativa cresce, métodos automatizados para inspeção de conformidade serão cruciais para detectar marca d’água e garantir a aplicação eficaz dos regulamentos de IA.

Quais são os principais desafios e potenciais desenvolvimentos futuros relativos à implementação eficaz dos regulamentos do AI Act no contexto da IA generativa?

O AI Act da UE visa abordar os riscos do conteúdo gerado por IA com marcações legíveis por máquina obrigatórias e divulgações visíveis para deepfakes. O não cumprimento pode resultar em multas significativas, com início em 1º de agosto de 2026. No entanto, persistem ambiguidades em torno da aplicação prática, especialmente no que diz respeito à alocação de responsabilidade e à definição de “deepfake”.

Principais Desafios de Implementação:

  • Definindo ‘Deepfake’: A falta de clareza sobre o que constitui um “deepfake” cria incerteza para os implementadores.
  • Alocação de Responsabilidade: A divisão de responsabilidades ao longo da complexa cadeia de suprimentos de IA generativa (desenvolvedores de modelos, desenvolvedores downstream, provedores de sistemas e implementadores) precisa de esclarecimentos.

Complexidades das Regras de Transparência:

Especificamente, o Artigo 50 do AI Act descreve as regras de transparência que se aplicam aos sistemas de IA generativa:

  • Artigo 50(2): Os provedores devem garantir que as saídas sejam “marcadas em um formato legível por máquina e detectáveis como artificialmente geradas ou manipuladas”. As soluções devem ser eficazes, interoperáveis, robustas e confiáveis.
  • Artigo 50(4): Os implementadores que geram ou manipulam conteúdo de imagem, áudio ou vídeo constituindo um deepfake devem divulgar que o conteúdo foi artificialmente gerado ou manipulado.”
  • Visibilidade: De acordo com o Artigo 50(5), as informações devem ser fornecidas “de forma clara e distinguível o mais tardar no momento da primeira interação ou exposição”. Para deepfakes, isso é interpretado como incluindo uma marca visível na saída.

Desenvolvimentos e Considerações Futuras:

A aplicação eficiente dependerá de:

  • Verificações de Conformidade Automatizadas: Para lidar com o volume aumentado, são necessários métodos automatizados para inspeção de conformidade, que integrem vários mecanismos de detecção.
  • Marca d’água no Nível do Modelo: A marca d’água legível por máquina seria melhor implementada no estágio de desenvolvimento do modelo, onde poderia ser aplicada por meio de API e termos de licenciamento.
  • Designação de Modelo GPAI: Os modelos de imagem mais avançados poderiam ser designados como modelos GPAI com risco sistêmico.
  • Classificação do Provedor de API: Poderia ser considerado classificar os provedores que oferecem APIs de modelo prontas para uso como provedores de sistemas de IA.

Em última análise, o AI Act da UE visa uma implementação confiável e mitiga os riscos do conteúdo de IA generativa, mas apresenta ambiguidade substancial ao traduzir a conformidade de requisitos legais em produtos técnicos reais que podem criar problemas para os implementadores e a distribuição de responsabilidades com os diferentes componentes da cadeia generativa de IA.

À medida que a IA generativa remodela rapidamente nosso mundo digital, o caminho para a inovação responsável reside em colmatar a lacuna entre a ambição regulatória e a implementação prática. Embora a Lei de IA da UE estabeleça um precedente crucial para a transparência e a responsabilização, a sua eficácia depende da resolução de ambiguidades críticas e da promoção de soluções colaborativas em todo o complexo ecossistema de IA. Olhando para o futuro, focar-se em marcações de água robustas ao nível do modelo, esclarecer a responsabilidade ao longo da cadeia de abastecimento e desenvolver mecanismos de conformidade automatizados será essencial para desbloquear o potencial transformador da IA generativa, salvaguardando simultaneamente contra os seus riscos inerentes. Navegar com sucesso nestes desafios é fundamental para promover um futuro onde a IA beneficie a sociedade como um todo.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...