Preservação de Dados em Inteligência Artificial Generativa

Preservação de Prompts e Saídas de IA Generativa

A utilização de ferramentas de inteligência artificial generativa (IA) tem crescido exponencialmente, mas também levanta preocupações legais significativas relacionadas à privacidade de dados, segurança de dados e considerações de privilegiados. Em processos de descoberta, os prompts e saídas gerados por IA podem ser considerados informações únicas que devem ser preservadas para litígios.

As organizações precisam considerar como preservar essa informação e se há necessidade de incorporar mudanças em seus acordos de informação eletrônica (ESI) padrão.

Governança da Informação e Políticas de Preservação

É imperativo que as organizações tenham políticas de governança da informação e treinamentos em vigor para contabilizar o uso de ferramentas de IA generativa em seus negócios. Isso inclui determinar se os prompts e saídas gerados por IA são considerados “registros” e, se forem, atualizar as políticas e cronogramas de retenção de registros adequadamente.

Ter advogados especializados em descoberta e governança de informações é essencial para garantir que os prompts e saídas sejam retidos quando necessário.

IA Generativa Cria Registros Únicos e Novos

Cada ferramenta de IA generativa opera de maneira única, dependendo de sua configuração e do armazenamento de dados. Profissionais jurídicos devem compreender tanto os tipos de dados sendo criados quanto os locais onde esses dados são armazenados para cada ferramenta.

Por exemplo, uma aplicação que cria um resumo em forma de tópicos de uma reunião geralmente começa criando uma transcrição dessa reunião, que então analisa para produzir um resumo. A questão é: esses documentos serão armazenados no armazenamento online do organizador da reunião, integrados em uma rede corporativa ou distribuídos entre os participantes?

Tratamento de Artefatos Gerados por IA nos Tribunais

Embora as ferramentas de IA generativa tenham proliferado rapidamente, os tribunais e litigantes estão apenas começando a abordar seu uso e saída. Um exemplo é o caso Tremblay v. OpenAI, onde um grupo de autores processou a OpenAI por infringimento de direitos autorais, alegando que a empresa treinou seu modelo ChatGPT com seus livros protegidos.

A OpenAI buscou a descoberta das informações da conta do ChatGPT dos autores e os prompts usados em testes pré-processuais. A decisão do juiz foi de que, embora as configurações da conta e os resultados de testes negativos sejam considerados trabalho de fato, os autores renunciaram a isso ao incluir um conjunto substancial desses fatos em sua queixa.

Melhores Práticas para Preservação e Governança de Informação

Documentos e dados criados com ferramentas de IA generativa podem ser relevantes para disputas antecipadas ou em andamento, se se referirem a alegações e defesas e forem proporcionais às necessidades do caso. Aqui estão algumas melhores práticas sugeridas:

Engajamento Precoce é Fundamental

Profissionais jurídicos e de governança da informação devem ser considerados partes interessadas essenciais a serem consultadas quando uma organização decide implantar ferramentas de IA generativa. Se a área jurídica for notificada apenas após a adoção da ferramenta, pode haver obstáculos para garantir que dados relevantes sejam preservados.

Compreender como a Ferramenta Cria, Salva e Manipula Dados

Os stakeholders jurídicos e de governança da informação devem estar envolvidos na seleção, teste e implantação de ferramentas de IA para entender onde cada ferramenta cria e armazena documentos e dados potencialmente relevantes.

Políticas de Retenção e Suspensão Legal Devem Ser Atualizadas

As políticas de retenção de documentos podem precisar ser atualizadas para garantir que documentos e dados gerados por IA sejam retidos pelo tempo apropriado. Da mesma forma, as políticas de suspensão legal devem abordar os novos tipos de dados criados por ferramentas de IA para garantir que os funcionários entendam a necessidade de preservação.

Treinamento de Usuário é Crítico

Como qualquer ferramenta, os resultados e a confiabilidade das ferramentas de IA dependem fortemente de como são utilizadas. Um programa robusto de treinamento em IA generativa deve ser um pré-requisito para o acesso por usuários, enfatizando não apenas as características, mas também os riscos apresentados pela ferramenta.

Conclusão

Com qualquer tecnologia emergente, é essencial que os riscos e obrigações sejam avaliados em paralelo aos benefícios de seu uso. A introdução da IA generativa em ambientes corporativos e na prática jurídica é um desafio que requer uma abordagem cuidadosa e abrangente.

As ferramentas de IA generativa possuem um potencial transformador, mas devem ser avaliadas, testadas, configuradas e utilizadas com atenção à criação de documentos e dados potencialmente relevantes que precisam ser preservados.

More Insights

Plano de Ação de IA para Fortalecer Padrões Éticos

O próximo Plano de Ação de Tecnologia de IA da Malásia de 2026 a 2030 irá reforçar as salvaguardas éticas e os frameworks de governança relacionados ao uso da inteligência artificial. O Ministro...

Kerala: Pioneirismo em IA Ética e Educação

O estado do Kerala, no sul da Índia, está se destacando como um exemplo global de implementação ética da inteligência artificial (IA), especialmente na educação e serviços públicos. Com uma estratégia...

Estados Lideram na Regulação do Desenvolvimento de IA nos EUA

Os estados dos EUA estão começando a estabelecer suas próprias leis de regulamentação da inteligência artificial, após a remoção de uma proibição de 10 anos sobre essa ação. Essa mudança permite que...

Compliance com IA: Potencial e Riscos em Equilíbrio

A IA em conformidade já está presente nas operações diárias de muitas organizações, desde a revisão automatizada de contratos até a detecção avançada de anomalias. Embora a IA possa aprimorar as...

A UE Acelera a Censura com Novas Regras de IA

Os novos padrões de “segurança e proteção” da UE exigirão que as empresas de tecnologia censurem e modere o conteúdo em modelos de inteligência artificial (IA) de uso geral para prevenir “ódio” e...