Adoção de IA e Transformação da Governança de Segurança
Um novo relatório revela que agentes de IA, integrações e plataformas de desenvolvimento nativas de IA estão se consolidando, levantando novos e críticos desafios de governança de segurança.
O relatório, intitulado “Adoção de IA na Prática: O que os Dados de Uso Empresarial Revelam Sobre Risco e Governança”, fornece insights sobre a adoção e os padrões de uso de IA no local de trabalho. A pesquisa constatou que o uso de IA ultrapassou a fase de experimentação e ferramentas de chat de uso geral, sendo agora incorporado aos fluxos de trabalho, integrado a plataformas de negócios essenciais e cada vez mais capaz de agir de forma autônoma.
Principais Descobertas
O uso de provedores de LLM (Modelos de Linguagem de Grande Escala) é quase universal. O OpenAI está presente em 96% das organizações, enquanto o Anthropic aparece em 77,8%.
As ferramentas de IA mais utilizadas estão se diversificando além do chat. Inteligência de reuniões (Otter.ai com 74,2%, Read.ai com 62,5%), apresentações (Gamma com 52,8%), codificação (Cursor com 48,4%) e voz (ElevenLabs com 45,2%) estão agora amplamente presentes.
Ferramentas agentes estão emergindo, com ferramentas como Manus (22%), Lindy (11%) e Agent.ai (8%) estabelecendo uma presença inicial.
As integrações são prevalentes e variadas. OpenAI e Anthropic estão comumente integrados à suíte de produtividade da organização, além de sistemas de gerenciamento de conhecimento, repositórios de código e outras ferramentas.
O uso é concentrado. Entre as ferramentas de chat mais ativas observadas, o OpenAI representa 67% do volume de prompts.
A saída de dados via prompts não é trivial. 17% dos prompts incluem atividade de copiar/colar e/ou upload de arquivos.
Os riscos de dados sensíveis se concentram em segredos. Eventos de dados sensíveis detectados são liderados por segredos e credenciais (47,9%), seguidos por informações financeiras (36,3%) e dados relacionados à saúde (15,8%).
Implicações e Riscos
A governança de IA tornou-se uma prioridade para líderes de segurança e risco, mas muitos programas permanecem focados de forma estreita em aprovações de fornecedores, políticas de uso aceitável ou riscos em nível de modelo. Embora necessários, esses controles sozinhos são insuficientes. Como esta pesquisa ilustra, os riscos mais significativos da IA agora decorrem de como os funcionários realmente utilizam as ferramentas de IA no dia a dia — quais dados compartilham, a quais sistemas a IA está conectada e quão profundamente a IA está integrada a outras ferramentas e fluxos de trabalho operacionais.
Compreender essas interseções entre pessoas, permissões e plataformas é a base para uma governança eficaz de IA.
Conclusão
A adoção de IA não é mais experimental — é operacional. Essa mudança exige que a governança de IA não seja mais reativa ou baseada apenas em políticas, mas que exija visibilidade em tempo real sobre quais ferramentas de IA estão em uso, como estão integradas aos sistemas críticos e para onde os dados sensíveis estão fluindo.