Revisão do DeepSeek sob as Novas Regras do Ato de IA da UE

Regras do Ato de IA da UE sobre Modelos GPAI sob Revisão do DeepSeek

O surgimento mainstream do aplicativo de IA chinês DeepSeek está levando os formuladores de políticas da UE a considerar mudanças no Ato de IA da UE. Um ajuste em uma medida de limite de poder computacional especificada na regulamentação pode ocorrer, com implicações potenciais para a regulamentação de outros modelos de IA de uso geral (GPAI).

Modelos GPAI e como o “risco sistêmico” é determinado

Os modelos GPAI são modelos de IA que podem realizar uma ampla gama de tarefas e frequentemente formam a base de outros sistemas de IA. Modelos de linguagem de grande porte (LLMs) são um exemplo de modelos GPAI.

As regras específicas para os provedores de modelos GPAI estão definidas no Capítulo V do Ato de IA e entram em vigor em 2 de agosto de 2025.

As regras mais rigorosas sob o Capítulo V se aplicam aos provedores de modelos GPAI “com risco sistêmico”. Compreender se um modelo GPAI será classificado como um modelo GPAI “com risco sistêmico” é um passo essencial para os desenvolvedores de IA entenderem suas obrigações sob o Ato de IA, mas não é um processo simples.

O conceito de “risco sistêmico” é definido na lei. Refere-se a “um risco que é específico para as capacidades de alto impacto dos modelos de IA de uso geral, tendo um impacto significativo no mercado da UE devido ao seu alcance ou devido a efeitos negativos reais ou previsíveis sobre a saúde pública, segurança, direitos fundamentais ou a sociedade como um todo, que podem ser propagados em larga escala ao longo da cadeia de valor”.

A relevância de “FLOPS” e como o DeepSeek muda as coisas

Operações de ponto flutuante, ou FLOPS, são uma medida de poder computacional. É definido no Ato como “qualquer operação matemática ou atribuição envolvendo números de ponto flutuante, que são um subconjunto dos números reais tipicamente representados em computadores por um inteiro de precisão fixa escalado por um inteiro expoente de uma base fixa”.

O Artigo 51(2) estabelece que um modelo GPAI será presumido ter “capacidades de alto impacto” quando mais de 1025 FLOPS forem utilizados para treinar o modelo.

O Ato de IA deixa claro que os provedores de modelos GPAI devem saber quando ultrapassaram o limite de FLOPS antes que o desenvolvimento desses modelos seja concluído. Isso ocorre porque, conforme o texto, “o treinamento de modelos de IA de uso geral requer considerável planejamento, o que inclui a alocação prévia de recursos computacionais”.

Os provedores são esperados a notificar o Escritório de IA da UE dentro de duas semanas após atender ao limite ou tomar conhecimento de que atenderam ao limite. É facultado aos provedores que atendem ao limite de FLOPS argumentar que seus modelos, mesmo assim, não devem ser classificados como modelos GPAI “com risco sistêmico” – com base no argumento de que “excepcionalmente não apresenta riscos sistêmicos”.

O que os provedores de modelos GPAI podem esperar a seguir?

Enquanto permanece a dúvida sobre como a Comissão responderá aos desenvolvimentos, as observações feitas precisam ser consideradas no contexto geopolítico mais amplo.

No ano passado, os “requisitos regulatórios adicionais para modelos de IA de uso geral” incluídos no Ato de IA foram citados como um exemplo da regulamentação precaucionária que inibe a inovação das empresas de tecnologia. Os comentários foram incluídos em um relatório preparado em nome da Comissão, que destacou preocupações mais amplas sobre a competitividade da UE no mercado global.

O Ato de IA prevê que códigos de prática sejam desenvolvidos para “estabelecer uma taxonomia de riscos do tipo e natureza dos riscos sistêmicos em nível da UE, incluindo suas fontes”.

Regulamentação em dois níveis e o código de prática GPAI

Os provedores de todos os modelos GPAI enfrentam obrigações de registro, transparência e relacionadas a direitos autorais, sujeitas a exceções aplicáveis a provedores de determinados modelos GPAI lançados sob uma licença livre e de código aberto.

Por exemplo, eles devem:

  • elaborar e manter a documentação técnica do modelo, incluindo seu processo de treinamento e testes e os resultados de sua avaliação – e disponibilizá-la aos reguladores mediante solicitação;
  • elaborar, manter e disponibilizar informações para ajudar os provedores de sistemas de IA a integrar seus sistemas com o modelo;
  • implementar uma política de direitos autorais em conformidade com a legislação da UE e permitir que os titulares de direitos reservem seus direitos de não ter suas obras utilizadas para treinamento;
  • publicar um resumo suficientemente detalhado sobre o conteúdo utilizado para o treinamento do modelo de IA de uso geral.

O código GPAI de prática, atualmente em estágios finais de desenvolvimento, será uma ferramenta importante para ajudar os provedores a cumprir o regime de modelos GPAI do Ato de IA.

A publicação do código finalizado é provável que seja o catalisador para um grande exercício de conformidade. Os provedores de modelos GPAI, cujo trabalho de conformidade já deve estar em andamento com base nos códigos de esboço publicados até o momento, estarão atentos ao Escritório de IA ou à Comissão por esclarecimentos sobre como os modelos GPAI com risco sistêmico serão classificados.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...