Obrigações do GPAI sob a Lei de IA da UE

EU AI Act: Obrigações do Modelo GPAI em Vigor e Código de Prática GPAI Final em Vigor

Em 10 de julho de 2025, o Gabinete de IA da União Europeia publicou a versão final do Código de Prática (CoP) para provedores de Modelos de Inteligência Artificial de Propósito Geral (GPAI) sob o Ato de Inteligência Artificial da UE. O CoP é uma ferramenta voluntária, preparada por especialistas independentes, destinada a ajudar os fornecedores de modelos GPAI a demonstrar conformidade com suas obrigações sob o Ato de IA da UE.

Estrutura do Código de Prática

O CoP inclui três capítulos principais:

  • Transparência
  • Direitos Autorais
  • Segurança e Proteção

Transparência

Os provedores de modelos GPAI devem completar um formulário de documentação de modelo para cumprir suas obrigações de transparência. Este formulário abrange informações sobre as propriedades técnicas, o treinamento, o consumo de energia e o uso pretendido do modelo de IA. A documentação deve ser mantida disponível por 10 anos.

Além disso, os provedores são obrigados a divulgar publicamente informações de contato para o Gabinete de IA e para os provedores downstream que desejam acessar informações relevantes. Medidas de controle de qualidade também devem ser implementadas para garantir a integridade das informações documentadas.

Direitos Autorais

O capítulo de direitos autorais enfatiza a necessidade de que os modelos de IA respeitem os direitos de propriedade intelectual. Os provedores devem desenvolver, manter e implementar uma política de direitos autorais para garantir conformidade com a legislação da UE sobre direitos autorais e direitos relacionados. Isso inclui a identificação e respeito pelas reservas de direitos expressas pelos detentores de direitos.

Os provedores de modelos GPAI que utilizam web crawlers para treinamento devem seguir limitações e medidas especificadas. Além disso, devem implementar salvaguardas apropriadas para evitar a geração de saídas que infrinjam direitos autorais.

Segurança e Proteção

O capítulo de segurança e proteção exige que os provedores implementem um quadro de segurança para gerenciar riscos sistêmicos. Isso inclui a identificação, análise e mitigação de riscos sistêmicos, além de requisitos para o design de sistemas de conformidade.

Os provedores devem criar um Relatório de Modelo de Segurança e Proteção antes de colocar um modelo GPAI no mercado, compartilhando informações sobre a análise de risco sistêmico com o Gabinete de IA.

Impacto e Conformidade

Embora o CoP não seja legalmente vinculativo, a adesão proporciona uma opção para os provedores de modelos GPAI demonstrarem conformidade com o Ato de IA da UE. O Gabinete de IA tem o poder de impor multas por não conformidade, que podem alcançar até 3% do faturamento anual global ou €15 milhões.

Conforme a implementação do Ato de IA da UE avança, a conformidade com o CoP pode ajudar a reduzir o risco de reclamações civis, uma vez que uma documentação abrangente pode servir de defesa para os provedores de modelos GPAI.

Em resumo, o CoP estabelece diretrizes importantes que moldarão normas da indústria, especialmente em relação à transparência, ao tratamento de reclamações e à gestão de conteúdo protegido por direitos autorais.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...