A Lei de IA da UE: Considerações de Conformidade Chave Antes de Agosto de 2025
A Comissão Europeia deixou claro: o cronograma para a implementação da Lei de Inteligência Artificial (Lei de IA da UE) permanece inalterado. Não há planos para períodos de transição ou adiamentos. As primeiras regulamentações estão em vigor desde 2 de fevereiro de 2025, enquanto outras obrigações chave se tornarão vinculativas em 2 de agosto. Violações da Lei de IA podem ser punidas com penalidades significativas, incluindo multas de até EUR 35 milhões ou 7% do faturamento anual global.
A Lei de IA marca o primeiro quadro legal abrangente do mundo para o uso e desenvolvimento de IA. Ela segue uma abordagem baseada em riscos que liga os requisitos regulatórios ao risco específico que um sistema de IA implica. A implementação pode apresentar desafios estruturais, técnicos e de governança para as empresas, especialmente na área de IA de propósito geral (GPAI).
Requisitos e Obrigações de Conformidade da Lei de IA da UE
A Lei de IA foca em práticas de IA consideradas arriscadas e proibidas. Certas aplicações foram expressamente proibidas desde 2 de fevereiro de 2025, incluindo:
- categorização biométrica com base em características sensíveis;
- sistemas de reconhecimento emocional no local de trabalho;
- sistemas manipulativos que influenciam o comportamento humano sem serem notados;
- pontuação social.
Essas proibições se aplicam de forma abrangente – tanto ao desenvolvimento quanto ao mero uso de tais sistemas.
Em 2 de agosto de 2025, requisitos abrangentes de due diligence, transparência e documentação também entrarão em vigor para vários atores ao longo da cadeia de valor da IA.
Espera-se que o legislativo alemão confie à Agência Federal de Redes (Bundesnetzagentur) a supervisão regulatória. A agência já estabeleceu um ponto de contato central, o “AI Service Desk”, para servir como primeiro ponto de contato para pequenas e médias empresas, particularmente para perguntas relacionadas à implementação prática da Lei de IA. Além disso, as empresas devem monitorar de perto os desenvolvimentos regulatórios, por exemplo, em relação ao Código de Prática final para modelos GPAI.
Quais Empresas e Partes Interessadas São Impactadas pela Lei de IA da UE?
Provedores de IA de Propósito Geral (GPAI)
Provedores de modelos GPAI – como modelos de linguagem grande ou multimodais – estarão sujeitos a um regime regulatório específico a partir de agosto de 2025. Eles serão obrigados a manter documentação técnica que torne o desenvolvimento, treinamento e avaliação do modelo rastreáveis. Além disso, relatórios de transparência devem ser preparados para descrever as capacidades, limitações, riscos potenciais e orientações para integradores.
Um resumo dos dados de treinamento utilizados também deve ser publicado, incluindo tipos de dados, fontes e métodos de pré-processamento. O uso de conteúdo protegido por direitos autorais deve ser documentado e legalmente permitido. Ao mesmo tempo, os provedores devem garantir a proteção de informações confidenciais.
GPAIs com Risco Sistêmico
Obrigações estendidas se aplicam a modelos GPAI particularmente poderosos classificados como “sistêmicos”. A classificação é baseada em critérios técnicos como poder computacional, alcance ou impacto potencial. Provedores de tais modelos devem relatar o sistema à Comissão Europeia, passar por procedimentos estruturados de avaliação e teste, e documentar permanentemente incidentes de segurança.
Além disso, requisitos aumentados se aplicam na área de cibersegurança e monitoramento.
Provedores e Modificadores a Montante
Empresas que modificam substancialmente modelos GPAI existentes se tornarão, para fins regulatórios, provedores. Uma modificação é considerada substancial se o modelo GPAI existente for alterado através de re-treinamento, ajuste fino ou outros ajustes técnicos de tal forma que a funcionalidade, desempenho ou riscos do modelo mudem significativamente.
Isto significa que todas as obrigações que se aplicam aos desenvolvedores originais de GPAI também se aplicam a modelos modificados. Na prática, o ajuste fino no contexto de aplicações empresariais deve ser cuidadosamente revisado do ponto de vista legal e, se necessário, protegido por medidas regulatórias.
Usuários de Sistemas de IA
Empresas que apenas utilizam sistemas de IA – especialmente em aplicações com riscos potenciais altos, como em recrutamento, medicina ou infraestrutura crítica – também são obrigadas a manter um inventário completo dos sistemas que utilizam. Além disso, devem garantir que aplicações proibidas não sejam utilizadas. Obrigações adicionais se aplicarão a sistemas de IA de alto risco a partir de agosto de 2026, como avaliações de impacto de proteção de dados e monitoramento interno.
As obrigações de transparência mais extensas para usuários de sistemas de IA – como rotulagem de conteúdo gerado por IA – não se tornarão vinculativas até 2 de agosto de 2026.
Requisitos Técnicos e Organizacionais
A implementação da Lei de IA requer não apenas medidas legais, mas também estruturais. As empresas devem considerar o seguinte para melhorar a conformidade:
- Estabelecimento de um inventário completo de IA com classificação de risco;
- Esclarecimento do papel da empresa (fornecedor, modificador ou implementador);
- Preparação da documentação técnica e de transparência necessária;
- Implementação de requisitos de direitos autorais e proteção de dados;
- Treinamento e verificação da competência em IA entre os funcionários (incluindo pessoal externo);
- Adaptação das estruturas de governança interna, incluindo a nomeação de pessoas responsáveis.
A Comissão e as autoridades nacionais de supervisão anunciaram que monitorarão de perto a implementação. As empresas devem revisar e adaptar regularmente suas estratégias de conformidade, particularmente em relação aos Códigos de Prática e futuros padrões técnicos.
Preparação Precoce para a Conformidade com a Lei de IA da UE e Mitigação de Riscos
2 de agosto de 2025 é um prazo vinculativo. Fazer um levantamento, esclarecer papéis e avaliar sistemas pode ajudar a criar uma base sólida para a certeza regulatória. Provedores e modificadores de GPAI, em particular, devem se preparar para um nível mais alto de responsabilização. Mas os implementadores tradicionais também são obrigados a garantir transparência e controle de suas aplicações de IA.
Medidas precoces podem mitigar riscos legais e financeiros, além de sublinhar a responsabilidade e viabilidade futura no tratamento da inteligência artificial.