Revisão do DeepSeek sob as Novas Regras do Ato de IA da UE

Regras do Ato de IA da UE sobre Modelos GPAI sob Revisão do DeepSeek

O surgimento mainstream do aplicativo de IA chinês DeepSeek está levando os formuladores de políticas da UE a considerar mudanças no Ato de IA da UE. Um ajuste em uma medida de limite de poder computacional especificada na regulamentação pode ocorrer, com implicações potenciais para a regulamentação de outros modelos de IA de uso geral (GPAI).

Modelos GPAI e como o “risco sistêmico” é determinado

Os modelos GPAI são modelos de IA que podem realizar uma ampla gama de tarefas e frequentemente formam a base de outros sistemas de IA. Modelos de linguagem de grande porte (LLMs) são um exemplo de modelos GPAI.

As regras específicas para os provedores de modelos GPAI estão definidas no Capítulo V do Ato de IA e entram em vigor em 2 de agosto de 2025.

As regras mais rigorosas sob o Capítulo V se aplicam aos provedores de modelos GPAI “com risco sistêmico”. Compreender se um modelo GPAI será classificado como um modelo GPAI “com risco sistêmico” é um passo essencial para os desenvolvedores de IA entenderem suas obrigações sob o Ato de IA, mas não é um processo simples.

O conceito de “risco sistêmico” é definido na lei. Refere-se a “um risco que é específico para as capacidades de alto impacto dos modelos de IA de uso geral, tendo um impacto significativo no mercado da UE devido ao seu alcance ou devido a efeitos negativos reais ou previsíveis sobre a saúde pública, segurança, direitos fundamentais ou a sociedade como um todo, que podem ser propagados em larga escala ao longo da cadeia de valor”.

A relevância de “FLOPS” e como o DeepSeek muda as coisas

Operações de ponto flutuante, ou FLOPS, são uma medida de poder computacional. É definido no Ato como “qualquer operação matemática ou atribuição envolvendo números de ponto flutuante, que são um subconjunto dos números reais tipicamente representados em computadores por um inteiro de precisão fixa escalado por um inteiro expoente de uma base fixa”.

O Artigo 51(2) estabelece que um modelo GPAI será presumido ter “capacidades de alto impacto” quando mais de 1025 FLOPS forem utilizados para treinar o modelo.

O Ato de IA deixa claro que os provedores de modelos GPAI devem saber quando ultrapassaram o limite de FLOPS antes que o desenvolvimento desses modelos seja concluído. Isso ocorre porque, conforme o texto, “o treinamento de modelos de IA de uso geral requer considerável planejamento, o que inclui a alocação prévia de recursos computacionais”.

Os provedores são esperados a notificar o Escritório de IA da UE dentro de duas semanas após atender ao limite ou tomar conhecimento de que atenderam ao limite. É facultado aos provedores que atendem ao limite de FLOPS argumentar que seus modelos, mesmo assim, não devem ser classificados como modelos GPAI “com risco sistêmico” – com base no argumento de que “excepcionalmente não apresenta riscos sistêmicos”.

O que os provedores de modelos GPAI podem esperar a seguir?

Enquanto permanece a dúvida sobre como a Comissão responderá aos desenvolvimentos, as observações feitas precisam ser consideradas no contexto geopolítico mais amplo.

No ano passado, os “requisitos regulatórios adicionais para modelos de IA de uso geral” incluídos no Ato de IA foram citados como um exemplo da regulamentação precaucionária que inibe a inovação das empresas de tecnologia. Os comentários foram incluídos em um relatório preparado em nome da Comissão, que destacou preocupações mais amplas sobre a competitividade da UE no mercado global.

O Ato de IA prevê que códigos de prática sejam desenvolvidos para “estabelecer uma taxonomia de riscos do tipo e natureza dos riscos sistêmicos em nível da UE, incluindo suas fontes”.

Regulamentação em dois níveis e o código de prática GPAI

Os provedores de todos os modelos GPAI enfrentam obrigações de registro, transparência e relacionadas a direitos autorais, sujeitas a exceções aplicáveis a provedores de determinados modelos GPAI lançados sob uma licença livre e de código aberto.

Por exemplo, eles devem:

  • elaborar e manter a documentação técnica do modelo, incluindo seu processo de treinamento e testes e os resultados de sua avaliação – e disponibilizá-la aos reguladores mediante solicitação;
  • elaborar, manter e disponibilizar informações para ajudar os provedores de sistemas de IA a integrar seus sistemas com o modelo;
  • implementar uma política de direitos autorais em conformidade com a legislação da UE e permitir que os titulares de direitos reservem seus direitos de não ter suas obras utilizadas para treinamento;
  • publicar um resumo suficientemente detalhado sobre o conteúdo utilizado para o treinamento do modelo de IA de uso geral.

O código GPAI de prática, atualmente em estágios finais de desenvolvimento, será uma ferramenta importante para ajudar os provedores a cumprir o regime de modelos GPAI do Ato de IA.

A publicação do código finalizado é provável que seja o catalisador para um grande exercício de conformidade. Os provedores de modelos GPAI, cujo trabalho de conformidade já deve estar em andamento com base nos códigos de esboço publicados até o momento, estarão atentos ao Escritório de IA ou à Comissão por esclarecimentos sobre como os modelos GPAI com risco sistêmico serão classificados.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...