Segredos Comerciais na Era da IA: Navegando pela Transparência sob a Lei de IA da UEh2>
b>Para desenvolvedores e detentores de direitos, a proteção não pode mais depender apenas do silênciob>p>
A inteligência artificial (IA) prospera com aprendizado cumulativo e otimização e, ao contrário do software tradicional, a vantagem competitiva dos sistemas de IA muitas vezes não reside no código-fonte em si, mas em como os sistemas são treinados. Por essa razão, os desenvolvedores de IA estão cada vez mais confiando em segredos comerciais, além de, ou em vez de, patentes para proteger ativos-chave.p>
Enquanto as patentes relacionadas à IA, especialmente ao nível da UE, podem enfrentar desafios significativos (como assuntos excluídos ou falta de efeito técnico), a proteção de segredos comerciais pode ser imediata, flexível e durar indefinidamente, desde que o sigilo seja devidamente mantido.p>
Na prática, alguns dos ativos mais valiosos nos ecossistemas de IA são ideais para proteção de segredos comerciais, incluindo:p>
-
li>Pipelines de dados proprietários e técnicas de pré-processamentoli>
li>Estratégias de aprendizado por reforço e protocolos de treinamentoli>
li>Pesos de modelos, arquiteturas e algoritmos internosli>
li>Prompt e instruçõesli>
li>Guardrails de segurança e frameworks de avaliaçãoli>
ul>
No entanto, esses são os mesmos elementos que, sob o amplo framework de transparência da Lei de IA da UE, podem precisar ser documentados e parcialmente divulgados. Isso cria um novo paradoxo legal: como cumprir com obrigações de divulgação sem erodir a confidencialidade que sustenta a vantagem competitiva e constitui o valor oculto dos segredos comerciais.p>
A paisagem de transparência da UEh3>
A Lei de IA da UE, que entrou em vigor em 2024, está sendo implementada progressivamente ao longo de 2025 e 2026. Um dos seus pilares mais impactantes é a transparência. A Lei introduz um framework em camadas que exige que as empresas divulguem informações com base no tipo de sistema de IA e no nível de risco associado.p>
Esse framework opera em três camadas distintas:p>
ol>
li>b>Transparência voltada para o usuário (Artigo 50)b>: Sistemas de IA projetados para interagir diretamente com pessoas, como chatbots e geradores de mídia sintética, devem informar claramente os usuários quando estão interagindo com IA ou encontrando conteúdo gerado por IA.li>
li>b>Documentação de sistemas de alto risco (Artigo 13)b>: Fornecedores de sistemas de IA de alto risco devem entregar instruções “claras, completas e corretas”, incluindo o propósito do sistema, métricas de precisão e detalhes dos dados de treinamento, validação e teste utilizados.li>
li>b>Obrigações de IA de uso geral (Artigo 53)b>: Todos os provedores de modelos de IA de uso geral devem preparar e manter documentação abrangente do modelo e compartilhar informações detalhadas com o Escritório de IA da UE ou autoridades nacionais quando solicitado.li>
ol>
É dentro dessas duas últimas categorias – sistemas de alto risco e modelos de IA de uso geral – que a tensão entre transparência e proteção de segredos comerciais se torna mais aguda.p>
Relevância prática: Transparência encontra confidencialidadeh3>
Casos recentes ilustram essa tensão, com defesas de segredos comerciais levantadas contra chamadas por maior transparência. Um exemplo é o caso b>The New York Times v. OpenAI e Microsoftb>, que envolve alegações de que os modelos da OpenAI foram treinados com conteúdo protegido do Times. Os demandantes buscam a divulgação dos dados de treinamento subjacentes, enquanto a OpenAI argumenta que tais informações constituem segredos comerciais centrais para sua vantagem competitiva.p>
Um caso onde essa defesa não prevaleceu totalmente é o b>CK v. Magistrat der Stadt Wienb> (C-203/22). O Tribunal de Justiça da União Europeia (CJUE) decidiu que um operador que utiliza a tomada de decisão automatizada deve fornecer informações “concisas, transparentes, inteligíveis e facilmente acessíveis” sobre os critérios utilizados, mesmo que esses critérios sejam protegidos como segredos comerciais.p>
Instrumentos de implementação da Comissãoh3>
Dois instrumentos-chave adotados em meados de 2025 transformaram os deveres de transparência da Lei de IA de uma política aspiracional em requisitos de conformidade do dia a dia:p>
-
li>b>Código de Prática para IA de Uso Geralb>: Finalizado em julho de 2025, fornece orientações práticas para provedores de modelos de IA de uso geral sobre como atender às suas obrigações de transparência, segurança e documentação.li>
li>b>Diretrizes da Comissão sobre transparência em IA de Uso Geralb>: Publicadas em setembro de 2025, esclarecem como as obrigações de transparência e documentação devem ser aplicadas na prática.li>
ul>
Esses desenvolvimentos ilustram como os provedores de IA podem se encontrar cada vez mais presos entre as expectativas de transparência e a necessidade de preservar conhecimentos proprietários.p>
Navegando pela tensão: Da divulgação reativa à transparência estruturadah3>
Para navegar nesse cenário, as empresas devem passar de uma divulgação reativa para uma gestão de transparência estruturada, mapeando informações sensíveis desde o início e preparando uma “transparência defensável”. Isso significa divulgar o que é necessário, mas estruturar as explicações técnicas em um nível apropriado de abstração que evite riscos de reconstrução.p>
Conclusãoh2>
A Lei de IA da UE marca uma mudança decisiva de divulgação voluntária para transparência forçada. Para desenvolvedores e detentores de direitos de IA, isso significa que a proteção de segredos comerciais não pode mais depender apenas do silêncio.p>