Implementação da Lei de IA da UE: Novas obrigações para sistemas de IA de uso geral entram em vigor
A Lei de Inteligência Artificial da União Europeia (“Lei de IA”) representa o primeiro marco legal abrangente para a inteligência artificial (“IA”) no mundo, visando abordar os riscos associados à IA enquanto promove uma inovação confiável em toda a Europa. Estabelece regras baseadas em riscos para a IA e tem consequências de amplo alcance para empresas que desenvolvem, implementam ou utilizam IA na UE – independentemente de estarem ou não baseadas na UE.
As disposições da Lei de IA se tornam aplicáveis de forma progressiva ao longo de vários anos, com o segundo prazo de implementação chave já alcançado.
Fase 1: Sistemas de IA proibidos e treinamento de pessoal
Desde 2 de fevereiro de 2025, certos sistemas de IA considerados de risco inaceitável foram proibidos de serem colocados no mercado da UE, utilizados ou implementados na UE. Além disso, os provedores e implementadores de sistemas de IA devem tomar medidas para demonstrar a literacia em IA entre seus funcionários.
Fase 2: Modelos de IA de Uso Geral (GPAI)
A partir de 2 de agosto de 2025, as obrigações relacionadas aos Modelos de IA de Uso Geral (GPAI) se aplicam a modelos de IA colocados no mercado a partir dessa data. Modelos de GPAI que foram colocados no mercado antes dessa data têm um período de dois anos, até 2 de agosto de 2027, para cumprir os requisitos da Lei de IA (Art. 111 (3) da Lei de IA).
Um modelo de GPAI refere-se a modelos de IA treinados com uma grande quantidade de dados (excedendo o limite computacional de 10²³ operações de ponto flutuante por segundo (FLOPS)) capazes de gerar linguagem (texto/audio), texto-para-imagem ou texto-para-vídeo, apresentando uma generalidade funcional significativa, ou seja, sendo capaz de realizar uma ampla gama de tarefas distintas que podem ser integradas em uma variedade de sistemas ou aplicações subsequentes.
Os modelos de GPAI incluem grandes modelos de linguagem como GPT-4, Google Gemini e Llama 3.1. Sistemas de IA como chatbots de redes sociais (por exemplo, Grok) são construídos com base em modelos de IA de uso geral.
A Lei de IA diferencia entre os modelos de GPAI que apresentam risco sistêmico (em particular, modelos de IA que excedem o limite computacional de 10²⁵ FLOPS) e aqueles que não possuem risco sistêmico. Organizações que implementam ou desenvolvem modelos de GPAI agora devem classificar seus modelos de GPAI e cumprir obrigações que vão desde requisitos sobre documentação técnica ou transparência (incluindo, por exemplo, um resumo público obrigatório do conteúdo de treinamento) até a cooperação com as autoridades competentes em relação aos modelos de GPAI sem risco sistêmico; além de cumprir requisitos adicionais sobre notificação de incidentes, avaliação e mitigação de riscos sistêmicos e segurança cibernética (para modelos de GPAI com riscos sistêmicos).
Um novo escritório de IA será criado dentro da Comissão Europeia (“Comissão”) e atuará como órgão de supervisão para todos os GPAIs.
Em 18 de julho de 2025, a Comissão publicou e aprovou diretrizes preliminares que esclarecem as disposições-chave da Lei de IA aplicáveis aos modelos de GPAI. As diretrizes visam apoiar as organizações em seus esforços de conformidade, fornecendo insights sobre a interpretação da Comissão em relação às disposições sobre sistemas de GPAI. As diretrizes fornecem orientação interpretativa sobre a definição e o escopo dos modelos de GPAI, obrigações relacionadas ao ciclo de vida, critérios de risco sistêmico e deveres de notificação para os provedores.
A Comissão também publicou um Código de Prática para IA de Uso Geral (“Código de Prática”) preparado por vários especialistas independentes e confirmou que este Código de Prática é uma ferramenta voluntária adequada para que os provedores de modelos de GPAI demonstrem sua conformidade com a Lei de IA. O Código de Prática foca em transparência, direitos autorais, segurança e proteção dos modelos de GPAI.
Fase 3: Disposições restantes
As disposições restantes da Lei de IA, exceto o Art. 6 (1), começarão a aplicar-se a partir de 2 de agosto de 2026.
Recomendações estratégicas
À medida que as disposições mais amplas da Lei de IA se aproximam da data de aplicação de 2 de agosto de 2026, as organizações devem priorizar duas ações preparatórias críticas: mapeamento abrangente dos sistemas de IA e definição precisa de papéis sob o quadro da Lei de IA. A distinção entre provedores de sistemas de IA, implementadores, distribuidores e importadores tem profundas implicações de conformidade, com cada papel acionando obrigações distintas, exposições de responsabilidade e requisitos de governança.
Dada a abrangência global e a complexidade técnica da Lei de IA, recomenda-se realizar avaliações abrangentes dos sistemas para identificar quais sistemas se enquadram nas categorias de IA de alto risco, modelos de IA de uso geral ou sistemas de IA sujeitos a certas obrigações de transparência e desenvolver estruturas de conformidade personalizadas de maneira oportuna. Preparação antecipada em áreas como documentação, transparência e conformidade com direitos autorais é essencial para evitar riscos de execução e interrupções nos negócios.