Diretrizes do Ato de IA da UE Refinam Especificações de Direitos Autorais

Diretrizes do Ato de IA da UE Refinam Especificações de Direitos Autorais

O Ato de IA da UE introduziu um novo marco regulatório para provedores de modelos de inteligência artificial de uso geral (GPAI), com foco em suas obrigações de conformidade, especialmente em relação aos direitos autorais. O Código de Práticas (CoP) foi revisado e é considerado mais viável do que as versões anteriores.

Com um prazo para finalização até o dia 2 de maio, os provedores de modelos GPAI têm apenas três meses para se adequar antes que suas obrigações entrem em vigor em 2 de agosto. O não cumprimento pode resultar em multas de até 3% do faturamento global anual ou 15 milhões de euros, o que for maior.

Prática e Conformidade

O Ato de IA da UE apresentou o conceito de um Código de Práticas como um guia detalhado para provedores de modelos GPAI. Embora a adesão ao CoP seja voluntária, ela demonstra conformidade com o ato até que “normas harmonizadas” sejam estabelecidas.

As medidas relacionadas a direitos autorais foram facilitadas, sendo baseadas no princípio de que a conformidade deve ser proporcional ao tamanho e à capacidade do provedor.

Política de Direitos Autorais

Os provedores de modelos GPAI devem implementar uma política que respeite a legislação de direitos autorais europeia. As especificações do CoP exigem:

  • Designar responsabilidades internas de conformidade e elaborar um documento que descreva todos os compromissos relevantes em relação aos direitos autorais.
  • Mitigar o risco de que um sistema de IA downstream gere saídas que infrinjam direitos autorais, fazendo “esforços razoáveis” para evitar a memorização de conteúdos de treinamento que possam levar a tais saídas.
  • Proibir o uso infrator de direitos autorais em suas políticas de uso e termos e condições, exceto para modelos de código aberto.

O CoP esclarece que essas medidas devem ser adotadas independentemente de a integração do modelo ser vertical (pelo provedor) ou horizontal (por outra entidade).

Opt-Outs e Treinamento

Os provedores devem identificar e respeitar reservas de direitos em formato legível por máquina, ou opt-outs, dos titulares de direitos para o uso de seus conteúdos para mineração de texto e dados, conforme permitido pela exceção de direitos autorais da UE.

As especificações do CoP indicam que:

  • Os provedores não devem contornar medidas tecnológicas eficazes (como paywalls) ao vasculhar a web.
  • Devem fazer “esforços razoáveis” para excluir “domínios de pirataria” de suas atividades de rastreamento.
  • Quando utilizarem material de treinamento obtido por terceiros, os provedores devem fazer “esforços razoáveis” para garantir que o material respeite as reservas de direitos.

Reconhecimento de Opt-Outs Legíveis por Máquina

Os provedores devem usar crawlers da web que leiam e sigam as instruções expressas em robots.txt, alinhando-se à visão de especialistas legais e técnicos. Devem ser feitos “esforços máximos” para cumprir outros protocolos adequados de opt-outs legíveis por máquina.

Embora não seja uma obrigação, o CoP recomenda que os provedores designem um ponto de contato para os titulares de direitos afetados.

Considerações Finais

Embora o CoP não resolva todas as incertezas legais e técnicas para a conformidade de modelos GPAI, ele oferece um caminho estruturado inicial. A clarificação sobre robots.txt como padrão atual para opt-outs de TDM reduz significativamente as incertezas e permite que as partes interessadas colaborem na definição de novos padrões.

Um desafio central permanece em definir o que os provedores de modelos devem fazer para evitar saídas que infrinjam direitos autorais de sistemas downstream. As revisões no processo de redação refletem que a contribuição das partes interessadas sobre questões práticas é reconhecida. Portanto, é um momento crucial para que as partes interessadas enviem seus comentários finais.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...