UE Esclarece Escopo da Lei de IA para Modelos de Inteligência Artificial Geral

Movimentos da UE para esclarecer o escopo da Lei de IA para IA Geral

Os formuladores de políticas da UE estão considerando a definição de medidas de limiar de recursos computacionais para ajudar as empresas a determinar se, e até que ponto, os modelos de IA que treinam ou modificam estão sujeitos a requisitos regulatórios sob a Lei de IA da UE.

Propostas e Consulta

Os limiares propostos foram apresentados pelo Escritório de IA da UE em um documento de trabalho que delineia o pensamento atual, mas não final ou vinculativo, sobre as questões relevantes ao escopo das regras aplicáveis aos modelos de IA de propósito geral (GPAI) sob a Lei de IA.

As propostas estão sujeitas a uma pesquisa aberta pela Comissão Europeia, na qual busca as opiniões da indústria e de outras partes interessadas. O feedback é esperado para ajudar a moldar novas diretrizes que esclarecerão o escopo do regime de GPAI, que deverá entrar em vigor em 2 de agosto de 2025.

Diferenças entre os Modelos de IA

O regime da Lei de IA para modelos de GPAI é distinto dos outros requisitos da Lei aplicáveis a sistemas de IA – os modelos de IA são considerados componentes dos sistemas de IA, para os propósitos da Lei.

O Dr. Nils Rauer, especialista em direito da tecnologia e regulação de IA, comentou: “Como todas as novas leis, aqueles que são afetados pelo novo regime regulatório necessitam de uma orientação inicial sobre o que o legislador quer dizer com a linguagem escolhida e promulgada.”

Obrigações dos Fornecedores de Modelos de GPAI

De acordo com a Lei de IA, os fornecedores de modelos de GPAI enfrentam uma variedade de obrigações de registro e divulgação, que incluem:

  • Documentar o processo de treinamento e teste do modelo;
  • Compartilhar informações para ajudar os fornecedores de sistemas de IA a integrar seus sistemas com o modelo;
  • Elaborar uma política de direitos autorais em conformidade com a legislação da UE;
  • Publicar um resumo suficientemente detalhado sobre o conteúdo utilizado para o treinamento do modelo.

Modelos de GPAI “com risco sistêmico” enfrentam obrigações adicionais, incluindo avaliação do modelo, testes e mitigação de riscos, assim como relatórios de incidentes e segurança cibernética.

Código de Prática para Modelos de GPAI

A Comissão está nas fases finais de desenvolvimento de um código de prática de GPAI para detalhar melhor cada um dos vários requisitos que os fornecedores de GPAI devem atender sob a Lei de IA. Esperava-se amplamente que o código finalizado fosse publicado em 2 de maio, mas um relatório sugere que haverá um atraso na publicação.

O Escritório de IA afirmou que a adesão ao código não será obrigatória, mas os signatários do código “serão transparentes em sua conformidade com a Lei de IA e, portanto, se beneficiarão de uma maior confiança da Comissão e de outras partes interessadas”.

Definição e Presunções do GPAI

GPAI é definido sob a Lei de IA como um modelo de IA que exibe generalidade significativa e é capaz de realizar competentemente uma ampla gama de tarefas distintas. Modelos de IA que são utilizados para pesquisa, desenvolvimento ou atividades de protótipo antes de serem colocados no mercado estão fora do escopo do que é definido.

Se as propostas do Escritório de IA forem adotadas como atualmente redigidas, modelos de IA que podem gerar texto ou imagens seriam presumidos como modelos de GPAI se seu treinamento computacional for superior a 10²² operações de ponto flutuante (FLOP).

Implicações para Empresas

As empresas que implementam modelos em seus próprios sistemas de IA são consideradas fornecedoras de GPAI para os fins da legislação. O Escritório de IA indicou que empresas que modificam ou “ajustam” modelos de GPAI já colocados no mercado seriam presumidas como fornecedoras de modelos GPAI se a quantidade de recursos computacionais utilizados para modificar o modelo for superior a um terço de 10²² FLOP.

Essas entidades seriam responsáveis pela conformidade apenas em relação às modificações que fazem, e não ao modelo como um todo.

Além disso, o Escritório de IA afirmou que a presunção de que modelos que atendem aos vários limiares estão dentro do escopo dos requisitos relevantes sob o regime de GPAI seria refutável, permitindo que as empresas apresentem argumentos sobre por que seus modelos deveriam ser isentos.

Considerações Finais

O uso de FLOP como métrica para distinguir obrigações regulatórias sob a Lei de IA é controverso. O Escritório de IA reconheceu que “o treinamento computacional é um proxy imperfeito para generalidade e capacidades”. A busca por métricas alternativas que avaliem a generalidade e capacidades de um modelo com relativa facilidade está em andamento.

A implementação das obrigações sob a Lei de IA deve ocorrer até 2 de agosto de 2027, permitindo que os fornecedores tomem as medidas necessárias para garantir conformidade, especialmente para modelos de GPAI que foram colocados no mercado antes da data de vigência.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...