UE Esclarece Escopo da Lei de IA para Modelos de Inteligência Artificial Geral

Movimentos da UE para esclarecer o escopo da Lei de IA para IA Geral

Os formuladores de políticas da UE estão considerando a definição de medidas de limiar de recursos computacionais para ajudar as empresas a determinar se, e até que ponto, os modelos de IA que treinam ou modificam estão sujeitos a requisitos regulatórios sob a Lei de IA da UE.

Propostas e Consulta

Os limiares propostos foram apresentados pelo Escritório de IA da UE em um documento de trabalho que delineia o pensamento atual, mas não final ou vinculativo, sobre as questões relevantes ao escopo das regras aplicáveis aos modelos de IA de propósito geral (GPAI) sob a Lei de IA.

As propostas estão sujeitas a uma pesquisa aberta pela Comissão Europeia, na qual busca as opiniões da indústria e de outras partes interessadas. O feedback é esperado para ajudar a moldar novas diretrizes que esclarecerão o escopo do regime de GPAI, que deverá entrar em vigor em 2 de agosto de 2025.

Diferenças entre os Modelos de IA

O regime da Lei de IA para modelos de GPAI é distinto dos outros requisitos da Lei aplicáveis a sistemas de IA – os modelos de IA são considerados componentes dos sistemas de IA, para os propósitos da Lei.

O Dr. Nils Rauer, especialista em direito da tecnologia e regulação de IA, comentou: “Como todas as novas leis, aqueles que são afetados pelo novo regime regulatório necessitam de uma orientação inicial sobre o que o legislador quer dizer com a linguagem escolhida e promulgada.”

Obrigações dos Fornecedores de Modelos de GPAI

De acordo com a Lei de IA, os fornecedores de modelos de GPAI enfrentam uma variedade de obrigações de registro e divulgação, que incluem:

  • Documentar o processo de treinamento e teste do modelo;
  • Compartilhar informações para ajudar os fornecedores de sistemas de IA a integrar seus sistemas com o modelo;
  • Elaborar uma política de direitos autorais em conformidade com a legislação da UE;
  • Publicar um resumo suficientemente detalhado sobre o conteúdo utilizado para o treinamento do modelo.

Modelos de GPAI “com risco sistêmico” enfrentam obrigações adicionais, incluindo avaliação do modelo, testes e mitigação de riscos, assim como relatórios de incidentes e segurança cibernética.

Código de Prática para Modelos de GPAI

A Comissão está nas fases finais de desenvolvimento de um código de prática de GPAI para detalhar melhor cada um dos vários requisitos que os fornecedores de GPAI devem atender sob a Lei de IA. Esperava-se amplamente que o código finalizado fosse publicado em 2 de maio, mas um relatório sugere que haverá um atraso na publicação.

O Escritório de IA afirmou que a adesão ao código não será obrigatória, mas os signatários do código “serão transparentes em sua conformidade com a Lei de IA e, portanto, se beneficiarão de uma maior confiança da Comissão e de outras partes interessadas”.

Definição e Presunções do GPAI

GPAI é definido sob a Lei de IA como um modelo de IA que exibe generalidade significativa e é capaz de realizar competentemente uma ampla gama de tarefas distintas. Modelos de IA que são utilizados para pesquisa, desenvolvimento ou atividades de protótipo antes de serem colocados no mercado estão fora do escopo do que é definido.

Se as propostas do Escritório de IA forem adotadas como atualmente redigidas, modelos de IA que podem gerar texto ou imagens seriam presumidos como modelos de GPAI se seu treinamento computacional for superior a 10²² operações de ponto flutuante (FLOP).

Implicações para Empresas

As empresas que implementam modelos em seus próprios sistemas de IA são consideradas fornecedoras de GPAI para os fins da legislação. O Escritório de IA indicou que empresas que modificam ou “ajustam” modelos de GPAI já colocados no mercado seriam presumidas como fornecedoras de modelos GPAI se a quantidade de recursos computacionais utilizados para modificar o modelo for superior a um terço de 10²² FLOP.

Essas entidades seriam responsáveis pela conformidade apenas em relação às modificações que fazem, e não ao modelo como um todo.

Além disso, o Escritório de IA afirmou que a presunção de que modelos que atendem aos vários limiares estão dentro do escopo dos requisitos relevantes sob o regime de GPAI seria refutável, permitindo que as empresas apresentem argumentos sobre por que seus modelos deveriam ser isentos.

Considerações Finais

O uso de FLOP como métrica para distinguir obrigações regulatórias sob a Lei de IA é controverso. O Escritório de IA reconheceu que “o treinamento computacional é um proxy imperfeito para generalidade e capacidades”. A busca por métricas alternativas que avaliem a generalidade e capacidades de um modelo com relativa facilidade está em andamento.

A implementação das obrigações sob a Lei de IA deve ocorrer até 2 de agosto de 2027, permitindo que os fornecedores tomem as medidas necessárias para garantir conformidade, especialmente para modelos de GPAI que foram colocados no mercado antes da data de vigência.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...