Por que a Proveniência de Dados deve Ser o Pilar da Estratégia de Governança de IA de Cada CISO
A adoção de inteligência artificial (IA) nas empresas tem sido gradual e silenciosa, infiltrando-se em funções essenciais sem grandes programas de transformação digital. Departamentos legais estão resumindo contratos, recursos humanos estão reformulando comunicações sensíveis, e equipes de conformidade estão experimentando a automação da devida diligência. Grande parte dessas funções é baseada em modelos de linguagem de grande porte (LLMs), muitas vezes implementadas de forma discreta, envoltas em plataformas SaaS, ferramentas de produtividade ou pilotos internos.
O que preocupa não é a adoção em si, mas a suposição de segurança: a crença de que, por um modelo ser popular ou “pronto para o uso empresarial”, ele deve ser também compatível, seguro e governado. O que se observa, no entanto, é uma lacuna perigosa: a completa ausência de proveniência de dados.
Por que a Proveniência, e Não a Política, é a Real Linha de Defesa
A proveniência é mais do que um simples registro. Ela é o tecido conectivo da governança de dados. Responde a perguntas fundamentais: De onde os dados se originaram? Como foram transformados? Quem os manipulou, e sob qual política? No mundo dos LLMs – onde as saídas são dinâmicas, o contexto é fluido e a transformação é opaca – essa cadeia de responsabilidade frequentemente se quebra no momento em que um prompt é enviado.
Em sistemas tradicionais, geralmente podemos rastrear a linhagem dos dados. Podemos reconstruir o que foi feito, quando e por quê. Mas em ambientes baseados em LLM, os prompts nem sempre são registrados, as saídas são às vezes copiadas entre sistemas, e os modelos podem reter informações sem um consentimento claro. Passamos de fluxos de trabalho estruturados e auditáveis a um ciclo de decisão em caixa-preta. Em domínios altamente regulamentados como jurídico, financeiro ou de privacidade, isso representa uma crise de governança.
Expansão da IA e o Mito do Controle Centralizado
É um erro pensar na adoção de IA como um esforço centralizado. A maioria das empresas já lida com a expansão da IA, onde dezenas de ferramentas, alimentadas por diferentes LLMs, são utilizadas em partes desconectadas do negócio. Algumas são aprovadas e integradas, enquanto outras são testadas sob o radar. Cada uma possui seu próprio comportamento de modelo, políticas de manuseio de dados e complexidade jurisdicional, e quase nenhuma foi projetada com uma arquitetura de segurança ou conformidade em primeiro lugar.
Essa descentralização significa que a organização de segurança não está mais no controle de como as informações sensíveis são processadas. Um único funcionário pode copiar dados confidenciais em um prompt, receber uma saída e colá-la em um sistema de registro, completando efetivamente um ciclo de dados sem acionar um único alerta ou trilha de auditoria.
O desafio do CISO não é mais sobre acesso. Trata-se de intenção, fluxo e propósito, que são quase invisíveis em ambientes habilitados para IA.
As Regulamentações Não Estão Atrasadas, Estão Evoluindo Paralelamente
Há uma crença popular de que os reguladores não acompanharam a IA. Isso é apenas metade verdade. A maioria das leis modernas de proteção de dados – como GDPR, CPRA, a DPDPA da Índia e a PDPL da Arábia Saudita – já contém princípios que se aplicam diretamente ao uso de LLMs: limitação de propósito, minimização de dados, transparência, especificidade de consentimento e direitos de apagamento.
O problema não é a regulamentação – é a incapacidade de nossos sistemas de responder a ela. Os LLMs borram funções: o provedor é um processador ou um controlador? Uma saída gerada é um produto derivado ou uma transformação de dados? Quando uma ferramenta de IA enriquece um prompt do usuário com dados de treinamento, quem é o proprietário desse artefato enriquecido, e quem é responsável se ele causar dano?
Em cenários de auditoria, você não será questionado se usou IA. Você será questionado se pode provar o que ela fez e como. A maioria das empresas hoje não consegue.
Como Deve Ser a Governança Moderna de IA
Para reconstruir a confiança e a defensabilidade, os CISOs devem pressionar suas organizações a repensar a governança. Isso começa não com políticas, mas com infraestrutura.
1. Mapeamento de dados contínuo e automatizado
As interações de IA não param em sistemas estáticos. Elas ocorrem através de interfaces de chat, APIs, middleware e scripts internos. O mapeamento deve evoluir para rastrear não apenas onde os dados residem, mas onde eles se movem e quais modelos os tocam. Se seu mapeamento é baseado em instantâneas ou manual, já está obsoleto.
2. Visibilidade na RoPA e no processamento ciente de IA
Os Registros de Atividades de Processamento (RoPA) agora devem incluir a lógica do modelo, o comportamento da ferramenta de IA e a exposição jurisdicional. Não é suficiente saber qual fornecedor está sendo utilizado. Você precisa saber onde o modelo está hospedado, como foi treinado e quais riscos ele introduz no processamento subsequente.
3. Reconciliação de consentimento que é dinâmica e contextual
O consentimento capturado uma vez não é consentimento para tudo. As equipes precisam de mecanismos que alinhem o consentimento com a interação do modelo: O usuário concordou com o enriquecimento baseado em modelo? O sistema de IA está operando sob o propósito declarado da coleta? Se não, o consentimento deve ser revalidado ou sinalizado.
4. Registro de auditoria de prompts e saídas
Onde for prático, as interações com sistemas de IA devem ser registradas, com foco nos próprios prompts. Os prompts frequentemente contêm os dados mais sensíveis, e capturá-los é fundamental para entender quais informações estão sendo expostas. Embora registrar saídas e o uso subsequente seja valioso, o registro em nível de prompt deve ter prioridade, especialmente quando a auditabilidade total não é viável. Se você não pode rastrear o que foi solicitado, não pode avaliar completamente o risco.
5. Classificação de saídas de IA e controles de retenção
As saídas de LLMs devem ser classificadas e governadas. Se um sistema de IA reescreve um documento legal, essa saída pode precisar de controles de privilégio legal. Se redige uma linguagem interna de RH, os prazos de retenção podem se aplicar. As saídas não são efêmeras – elas fazem parte do ciclo de vida dos dados.
O Papel do CISO Está Mudando, e Isso é Uma Coisa Boa
A IA não é apenas uma tendência de dados. É também um evento de dados que redefine como devemos pensar sobre controle. Os líderes de segurança não estão mais apenas protegendo sistemas ou mesmo dados. Estamos protegendo o contexto: a metadados, intenção e legalidade que cercam cada interação com uma máquina que aprende e gera.
Isso requer que os CISOs se aprofundem mais em privacidade, conformidade, ética e governança de registros. Significa construir pontes com equipes jurídicas e oficiais de conformidade para garantir que o uso de IA não apenas cumpra a política, mas reflita os valores e limiares de risco da organização.
A governança de IA não deve ser de propriedade de um único departamento. Deve ser liderada por aqueles que entendem risco, resposta e resiliência, o que a torna inegavelmente nosso domínio.
A Rastreabilidade é a Nova Confiança
Na era da IA, não é mais suficiente dizer: “Nós não sabíamos”. Você será questionado sobre o que entrou no modelo, quem aprovou seu uso, como foi tratado o consentimento, podemos reproduzir a lógica que levou àquela decisão, onde está a evidência.
Se seus sistemas não conseguem responder a essas perguntas com confiança, você não está governando a IA – está esperando pelo melhor.
A confiança na IA não virá de políticas. Virá da proveniência. E isso começa com visibilidade, rigor e liderança desde o topo da organização de segurança.