Entro Alvo da Governança de Acesso de IA com Nova Camada para Agentes
A adoção de IA nas empresas está ocorrendo em passos pequenos e rápidos. Um desenvolvedor conecta uma ferramenta a um modelo de linguagem grande (LLM). Uma equipe instala um aplicativo de IA. Um agente ganha acesso a sistemas internos. Embora nada disso pareça um grande lançamento, ao longo do tempo, cria-se uma teia de conexões difícil de rastrear.
O Problema de Visibilidade por trás da Adoção de IA
As equipes de segurança estão acostumadas a gerenciar o acesso de pessoas e aplicativos. No entanto, os agentes de IA não se comportam como nenhum dos dois. Eles são criados rapidamente, funcionam continuamente e dependem de identidades não humanas, como chaves de API, tokens e contas de serviço. Isso cria um problema de visibilidade, pois as equipes frequentemente não conseguem responder a perguntas simples sobre o que existe em seu ambiente e o que pode acessar.
As ferramentas existentes de Governança e Administração de Identidades (IGA) foram projetadas para governar pessoas e aplicativos, mas não agentes autônomos que atuam por meio de identidades não humanas. Os agentes de IA podem se conectar rapidamente, operar continuamente e obter acesso por meio de tokens OAuth, chaves de API e segredos. O que quebra é a capacidade de responder: o que é este agente, o que ele pode alcançar, quais identidades o habilitam, quem é o proprietário e se esse acesso ainda é apropriado. A nova funcionalidade aplicada de governança visa fechar essa lacuna.
Por que a IA Muda o Modelo de Acesso
Em ambientes tradicionais, o acesso está vinculado a um login ou a um aplicativo definido. Com os agentes de IA, o acesso é mais fluido. Ele depende de como o agente se conecta aos sistemas, quais permissões herda e como interage entre as ferramentas. Isso significa que o risco não está mais ligado a uma única conta, mas se espalha por integrações, fluxos de automação e caminhos de acesso a dados.
Movendo-se Além da Detecção Básica de “Shadow AI”
Muitas empresas estão agora falando sobre “shadow AI”, mas a maioria das ferramentas ainda se concentra em detectar aplicativos ou usos desconhecidos. O objetivo da nova camada de governança é ir um passo além, conectando diferentes sinais em uma única visão. Isso inclui atividade de endpoint, comportamento na nuvem e as identidades que habilitam o acesso.
Essa abordagem permite que a governança se aproxime de como o acesso é realmente usado, e não apenas de como é atribuído. Para as equipes de segurança, isso significa menos suposições e mais contexto ao revisar riscos.
Implicações para Provedores de Serviços de Segurança Gerenciados (MSSPs)
O desafio se torna ainda mais complexo para os MSSPs que gerenciam múltiplos ambientes. Os agentes de IA não estão limitados a uma única organização; eles se espalham por contas de clientes, cada uma com diferentes ferramentas e integrações. Isso levanta a questão da escala. A nova funcionalidade faz parte da plataforma existente, permitindo que os MSSPs usem a mesma governança e modelo de controle para agentes de IA em ambientes conectados.
Os agentes de IA estão começando a agir como usuários, acessando sistemas, movendo dados e acionando ações sem a intervenção direta de humanos. No entanto, a maioria dos modelos de governança ainda os trata como processos de fundo. Essa lacuna é onde o risco se acumula.
Conclusão
A nova camada de governança reflete uma mudança mais ampla em como a identidade precisa ser gerenciada. Não se trata mais apenas de pessoas e aplicativos; agora inclui agentes, integrações e caminhos de acesso gerados por máquinas. À medida que a adoção de IA continua, a capacidade de ver e controlar esses caminhos de acesso provavelmente se tornará um requisito básico, não uma funcionalidade avançada.