Devo Inserir Conselhos Privilegiados em Uma Ferramenta de IA Pública e Posso Manter o Privilégio ao Fazer Isso?
Não – há um risco de que o tribunal considere esse conselho como publicado para o mundo, o que pode constituir uma violação de quaisquer deveres regulatórios aplicáveis. Na prática, fazer isso pode resultar em uma perda teórica, mas não real, de confidencialidade. Recomendamos, portanto, exercer cautela.
Qual é a posição legal?
Para que uma comunicação seja protegida por privilégio, ela deve ser (e permanecer) confidencial. Assim, informações que são “propriedade pública e conhecimento público” não podem ser consideradas confidenciais. A confidencialidade das comunicações repousa na interação entre as partes envolvidas e no uso das informações compartilhadas dentro da própria comunicação.
Como isso se aplica aos Sistemas de IA?
A resposta depende, em parte, do sistema de IA utilizado, bem como dos termos do acordo entre o usuário e o sistema de IA:
Sistemas de IA Pública:
Versões gratuitas de sistemas de IA populares, onde os dados podem ser usados para treinar o modelo subjacente para uso mais amplo e que podem processar e armazenar entradas dependendo de seus termos de serviço padrão. Os usuários geralmente não conseguem negociar os termos de serviço ou licença.
Sistemas de IA Personalizados:
Sistemas de IA que oferecem proteção contratual personalizada em torno da privacidade de dados, confidencialidade e segurança (entre outras coisas). Essa proteção pode ser adaptada dependendo do arranjo entre o provedor e o usuário e pode incluir termos que limitam ou proíbem a capacidade do sistema de IA de usar entradas para melhorar ou treinar seu modelo.
Os termos de um sistema de IA pública podem prometer ou garantir privacidade ao usuário e, como tal, pode ser tentador inserir informações confidenciais e/ou privilegiadas em um sistema de IA pública. No entanto, embora os tribunais deixem claro que a confidencialidade não é um conceito binário, confidencialidade e privacidade não devem ser usados de forma intercambiável. Portanto, a promessa de “privacidade” não garante confidencialidade.
Quais são os riscos?
A extensão em que as informações inseridas em um “Sistema de IA Generativa” perdem sua natureza confidencial (e, portanto, a proteção potencial do privilégio) é uma questão de fato e grau. Isso significa que a divulgação completa de uma comunicação privilegiada para um sistema de IA generativa é mais provável de resultar em uma perda ou renúncia de privilégio do que uma referência à mesma.
Diretrizes de IA de outubro de 2025 para o judiciário inglês contêm uma seção relacionada à manutenção da confidencialidade e privacidade no uso de sistemas de IA generativa no contexto legal. Notavelmente, a diretriz afirma que “todas as informações que você insere em um chatbot de IA pública devem ser vistas como publicadas para todo o mundo”, constituindo assim uma perda de confidencialidade.
Existem exceções?
Jurisprudência anterior já decidiu que, só porque uma informação se tornou pública, isso não significa que ela foi realmente acessada pelo público em geral. Informações confidenciais inseridas em um sistema de IA pública podem não perder sua natureza confidencial, pois as entradas podem não ser acessíveis a outros usuários do sistema, ou apenas acessíveis em circunstâncias muito limitadas.
No entanto, na ausência de um caso de teste sobre o assunto, é viável que uma “busca intensa” utilizando prompts detalhados e precisos possa resultar na divulgação de certas informações que, de outra forma, seriam confidenciais. À medida que os sistemas de IA continuam a evoluir em sofisticação e acessibilidade, o risco de divulgação não intencional de informações confidenciais e/ou sensíveis disponíveis para o mundo também aumenta.
Práticas recomendadas
Informações confidenciais e privilegiadas não devem ser inseridas em um sistema de IA pública. Se um advogado (seja interno ou externo) o fizer sem a permissão expressa de seu cliente, poderá estar violando seus deveres.
Advogados, como indivíduos regulamentados, devem se manter atualizados em relação a quaisquer desenvolvimentos regulatórios e legais nesta área, especialmente em relação à jurisprudência e possíveis reformas nas Regras de Procedimento Civil no contexto de litígios.
Quando possível, crie, disseminem e supervisionem políticas internas de uso consistente sobre sistemas de IA.