Quando a Orientação Ultrapassa o Limite

Quando a Orientação se Torna Excesso

A partir de 2 de agosto de 2025, os provedores de modelos de Inteligência Artificial de Uso Geral (GPAI), como GPT, DALL-E, Gemini e Midjourney, enfrentarão obrigações abrangentes sob a Lei de IA da UE. O surgimento desses grandes modelos (multimodais de linguagem) no final de 2022 levou os legisladores da UE a incluir rapidamente regulamentações sobre GPAI na Lei de IA.

Os provedores de modelos GPAI devem fornecer documentação técnica, implementar uma política de direitos autorais, publicar um resumo do conteúdo de treinamento e, para modelos particularmente poderosos que possam representar riscos sistêmicos, realizar avaliações de risco e medidas de mitigação.

Para demonstrar conformidade, a Lei de IA permite que os provedores se apoiem em um “Código de Prática”, atualmente sendo elaborado por mais de 1000 partes interessadas sob os auspícios do Escritório de IA, e que se espera ser adotado pela Comissão Europeia antes de agosto de 2025.

Co-regulação como Estratégia Central da Lei de IA

A Lei de IA baseia-se no Novo Quadro Legislativo (NLF), que depende da co-regulação: um diálogo estruturado entre reguladores e a indústria para traduzir obrigações legais gerais em normas técnicas. Em vez de especificar detalhes técnicos na legislação, a Lei de IA define requisitos essenciais e deixa a tarefa de concretização para as organizações de normalização europeias CEN e CENELEC através de seu comitê conjunto, JTC21.

As normas harmonizadas proporcionam segurança jurídica: uma vez adotadas pela Comissão, a conformidade com essas normas cria uma presunção de conformidade com a Lei de IA. Embora as empresas possam, em teoria, desenvolver suas próprias soluções técnicas, as dificuldades administrativas e os custos adicionais geralmente as levam a seguir normas. O Tribunal de Justiça da União Europeia tem consistentemente decidido que as normas harmonizadas fazem parte da lei da UE e devem ser desenvolvidas e publicadas de acordo com o estado de direito (Art. 2 TUE).

O Código de Prática como “parte da lei da UE”

Embora normas harmonizadas sejam previstas para modelos GPAI, os esforços de normalização nesse domínio ainda estão em um estágio inicial. Para preencher essa lacuna, a Lei de IA introduz um instrumento interino: o Código de Prática. Uma vez adotado pela Comissão Europeia através de um ato de implementação, a conformidade com o Código concederá uma presunção de conformidade sob os Art. 53(4)(2) e Art. 55(2)(2) da Lei de IA – similar às normas harmonizadas.

Em teoria, os provedores podem optar por não se basear no Código e demonstrar conformidade por meios alternativos. No entanto, na prática, o Código provavelmente moldará a interpretação e aplicação das obrigações GPAI pela Comissão.

Dada sua consequência legal e prática, não há dúvida de que o ECJ também reconhecerá o Código como “parte da lei da UE”. Consequentemente, o Código deve ser desenvolvido de acordo com o estado de direito (Art. 2 TUE) – tanto procedimental quanto substancialmente. No entanto, isso atualmente não está sendo respeitado.

Um Processo Não Regulamentado com 1.000 Partes Interessadas

Enquanto o desenvolvimento de normas harmonizadas é regido pelo Regulamento 1025/2012, a redação do Código de Prática depende unicamente do Artigo 56 da Lei de IA, que autoriza vagamente o Escritório de IA a convidar partes interessadas.

O resultado é um processo sem regras estruturadas, sem transparência e sem salvaguardas democráticas. Inicialmente, o Escritório de IA planejou redigir o Código a portas fechadas. Em resposta às críticas, passou para o extremo oposto, lançando uma consulta com quase 1.000 partes interessadas — coordenada por 10 especialistas, incluindo alguns não-europeus.

Com um cronograma extremamente comprimido e um número excessivo de participantes, o processo deixou pouco espaço para deliberações cuidadosas ou contribuições equilibradas. Mais preocupante ainda, acadêmicos — muitos sem conhecimento legal ou experiência em normalização técnica — estão liderando o esforço de redação. No entanto, o Código, uma vez adotado, definirá as expectativas das obrigações GPAI e influenciará a aplicação. Notavelmente, isso está acontecendo sem a participação significativa de especialistas em normalização, sem input do Parlamento Europeu e sem supervisão dos Estados Membros.

O Código de Prática como um Cavalo de Troia para Reformar a Lei de IA?

A substância do rascunho é igualmente preocupante. Enquanto seu propósito é ajudar os provedores a cumprir obrigações existentes, o rascunho atual vai além de meras clarificações – introduzindo novos requisitos não previstos na Lei de IA.

Um exemplo é o papel proposto de “avaliadores externos” antes de liberar modelos GPAI com riscos sistêmicos, o que não é previsto na Lei de IA. O rascunho exige que os provedores obtenham avaliações externas de risco sistêmico, incluindo avaliações de modelo, antes de colocar seus modelos no mercado. No entanto, a Lei de IA não impõe esse requisito – apenas pede testes adversariais de avaliações de modelo, não avaliações externas independentes de risco.

Outro exemplo diz respeito aos direitos autorais: a medida I.2.4 do rascunho exige que os desenvolvedores de modelos GPAI façam esforços razoáveis para determinar se o conteúdo protegido foi coletado por um crawler compatível com robots.txt – uma obrigação que a Lei de IA também não impõe. Além disso, a medida I.2.5 exige que os provedores de modelos GPAI tomem medidas razoáveis para mitigar o risco de sistemas de IA subsequentes gerarem repetidamente conteúdo que infrinja direitos autorais e proíbam tais usos em seus termos e condições.

Mais uma vez, a questão não é se esses requisitos são razoáveis, mas que o único propósito do Código é esclarecer as obrigações da Lei de IA, não redefini-las. Portanto, o Código não deve ser usado como um Cavalo de Troia para reformar a Lei de IA de acordo com preferências políticas – contornando procedimentos democráticos.

Próximos Passos: Adotar ou Não Adotar o Rascunho do Código de Prática

O que acontece a seguir? O Código de Prática só entrará em vigor se aprovado pela Comissão através de um ato de implementação sob o Art. 56(6) da Lei de IA. Ao contrário dos atos delegados, os atos de implementação não capacitam a Comissão a emendar ou complementar a legislação básica, ou seja, a Lei de IA.

Assim, a Comissão e o Conselho de IA não devem simplesmente carimbar o rascunho atual. Em vez disso, ambos devem conduzir uma revisão crítica e minuciosa para garantir que as medidas propostas sejam realmente necessárias para a implementação e não contradigam ou ultrapassem as disposições da Lei de IA.

Qualquer coisa menos do que isso não apenas minaria o compromisso político cuidadosamente negociado entre o Parlamento e o Conselho na Lei de IA, mas também levaria a um excesso inconstitucional dos poderes de implementação da Comissão.

More Insights

Fluxos de Trabalho de IA Responsáveis para Pesquisa em UX

A pesquisa de UX é tão forte quanto as decisões humanas que a orientam, e decisões equivocadas podem distorcer os resultados. Com a chegada da IA, é fascinante observar como ela pode acelerar e...

A evolução da IA Agente no setor bancário

A IA agentiva está revolucionando o setor bancário ao automatizar processos complexos e melhorar a experiência do cliente. No entanto, a transparência e a responsabilidade permanecem desafios...

Caminhos para a Governança de IA no ASEAN: Avanços e Desafios

A Associação das Nações do Sudeste Asiático (ASEAN) adota uma abordagem amigável à inovação em inteligência artificial (IA), visando se tornar uma economia digital totalmente integrada. No entanto, os...

O Papel da Inteligência Artificial na Segurança Pública

As agências de aplicação da lei estão cada vez mais utilizando a inteligência artificial (IA) para aprimorar suas funções, especialmente com capacidades de policiamento preditivo. O mercado global de...

Quênia lidera acordo histórico da ONU sobre governança da IA

O Quênia conquistou uma grande vitória diplomática após todos os 193 Estados-Membros das Nações Unidas concordarem unanimemente em estabelecer duas instituições inovadoras para governar a inteligência...