AI Está Acessando Dados Que Não Deveria
No relatório 2025 State of AI Data Security da Cyera, foi constatado que a adoção de IA está superando a governança de dados, a visibilidade e os controles. O levantamento revelou que as empresas estão adotando governança de IA sem as devidas políticas em vigor.
A visibilidade sobre as interações da IA com dados sensíveis é baixa, e a atividade da IA não está sendo monitorada em tempo real. Além disso, as organizações não possuem políticas dedicadas de IA para proteger seus dados. Essa falta de governança, visibilidade e controles estabelecidos permite o acesso ou a liberação de dados, aumentando preocupações de segurança e privacidade que podem passar despercebidas.
Adopção de IA e Falta de Visibilidade
É amplamente reconhecido que cada vez mais empresas estão adotando IA, com 83% dos 921 entrevistados no relatório afirmando que já a utilizam. No entanto, apenas 13% dos respondentes têm forte visibilidade sobre como a IA está interagindo com os dados sensíveis de suas empresas, e apenas 9% possuem monitoramento em tempo real para a IA.
Além disso, apenas 16% têm políticas dedicadas de IA, e apenas 7% contam com um comitê de governança de IA. Essa falta de supervisão pode resultar em violações regulatórias e vazamentos de dados, aumentando os custos.
Problemas de Acesso Indevido a Dados Sensíveis
Um problema significativo é que a IA está acessando dados que não deveria. 66% dos entrevistados relataram que a IA estava acessando dados sensíveis em excesso. Um dos respondentes compartilhou que um gerente de vendas percebeu como um copiloto de IA estava acessando informações sensíveis de preços antes que um sistema de gerenciamento de informações e eventos de segurança (SIEM) o detectasse, pois a IA havia recebido acesso padrão sem restrições ou monitoramento.
A falta de detecção em tempo real e visibilidade significa que comportamentos arriscados da IA podem passar despercebidos, levando a possíveis vazamentos de dados.
Consequências da Falta de Controle
Além disso, 21% dos respondentes afirmaram que a IA tinha amplo acesso aos dados por padrão. 33% admitiram estar cientes da falta de controles, mas apenas 9% planejam adicionar capacidades de bloqueio, enquanto 15% disseram que não conseguem bloquear o uso indevido. Sem diretrizes adequadas, a IA pode acessar e até liberar dados sensíveis, o que pode prejudicar a eficiência operacional.
Todas essas questões também podem levar a problemas regulatórios e de confiança. Os clientes se tornarão menos propensos a utilizar empresas que não protegem adequadamente seus dados, e os reguladores podem impor multas a organizações que não estejam em conformidade com as leis de privacidade. Também existem custos associados à resposta a incidentes, danos legais e impactos comerciais.