#Infosec2025: Crescente Preocupação com os Riscos de Segurança da IA Agentic
A Inteligência Artificial Agentic e as ferramentas de IA que se conectam entre si sem supervisão humana apresentam riscos de segurança crescentes, segundo especialistas.
O Que é a IA Agentic?
A IA agentic, ou agentes de IA, opera com um alto grau de autonomia. Um sistema agentic pode escolher o modelo de IA que utiliza, passar dados ou resultados para outra ferramenta de IA ou até mesmo tomar decisões sem a aprovação humana.
Esses sistemas funcionam a uma velocidade muito maior em comparação com as gerações anteriores de sistemas baseados em modelos de linguagem grandes (LLMs), já que operam sem a necessidade de um ser humano para fornecer instruções ou comandos. Além disso, eles podem aprender com a prática, adaptando os modelos e comandos que utilizam.
Riscos Associados à IA Agentic
Dificuldades podem surgir quando as organizações conectam componentes de IA, como ferramentas de IA generativa ou chatbots, sem verificações adicionais, ou permitem que os agentes de IA tomem decisões de forma autônoma. Isso já está acontecendo em áreas como desenvolvimento de código e configuração de sistemas.
Isso levanta o risco de que as implementações de IA nas organizações estejam avançando mais rapidamente do que os controles de segurança.
De acordo com uma pesquisa da empresa de consultoria EY, apenas 31% das organizações afirmam que sua implementação de IA está totalmente madura. Além disso, a governança de IA nas empresas fica atrás da inovação em IA.
Riscos e Brechas de Segurança
Os sistemas de IA agentic estão sujeitos a todos os mesmos riscos que incluem injeção de comandos, envenenamento, viés e imprecisões. No entanto, os problemas podem piorar quando um agente passa dados imprecisos, enviesados ou manipulados para outro. Mesmo uma taxa de erro relativamente baixa, de alguns pontos percentuais, pode se tornar um erro significativo se for acumulada entre subsistemas.
A segurança é ainda mais comprometida se as ferramentas de IA estão conectadas a fontes de dados fora do controle da empresa.
“Em vez de a IA conversar diretamente com os humanos, ela está conversando com outros sistemas de IA,” explicou um especialista em IA.
“Precisamos de uma camada de segurança intermediária para IA, especialmente se você estiver coletando ou ingeriando informações de fora.”
Desafios e Oportunidades
O rápido desenvolvimento da IA agentic significa que as equipes de segurança devem trabalhar rapidamente para identificar e relatar potenciais riscos de segurança. A pesquisa da EY revelou que 76% das empresas já estão usando IA agentic ou planejam fazê-lo dentro de um ano. No entanto, apenas 56% disseram que estavam moderadamente ou totalmente familiarizadas com os riscos.
“A implementação de IA é diferente da implantação de tecnologias anteriores,” observou a pesquisa. “Não é um exercício de ‘uma vez e acabou’, mas uma jornada, onde sua governança e controles de IA precisam acompanhar os investimentos em funcionalidade de IA.”
Implicações para as Organizações
Os conselhos de administração desejarão ver medidas para garantir o uso seguro da IA, incluindo a IA agentic. De acordo com especialistas, a rápida adoção da IA agentic está pressionando as organizações a reforçar seus controles e políticas, além de examinar se os sistemas agentic aumentam sua superfície de ataque.
“A IA agentic não está mais apenas no laboratório,” observou um diretor de segurança.
O desenvolvimento de código é uma área onde os agentes estão sendo usados. “Se os agentes estão escrevendo código, isso precisa ser seguro,” alertou.
“Você precisa testar o código gerado pelos agentes, além de dar a eles as diretrizes adequadas.”
Os desenvolvedores estão utilizando a IA agentic porque ela acelera a produção de código. Em outras empresas, os agentes estão sendo usados para melhorar o atendimento ao cliente e a automação.
Enquanto os bots de atendimento ao cliente da geração anterior ficavam sem respostas e eram forçados a passar os usuários para um agente humano, os sistemas de IA agentic são mais propensos a resolver problemas por conta própria.
“Os agentes de IA estão rapidamente transformando a forma como as empresas interagem com os clientes, automatizam operações e entregam serviços,” afirmaram especialistas em estratégia de cibersegurança.
Mas isso depende tanto dos desenvolvedores das ferramentas de IA quanto das equipes de TI que as implementam, para garantir que as APIs que conectam as ferramentas de IA também sejam seguras.
“Esses interfaces não são apenas conectores técnicos, eles fornecem os canais pelos quais os agentes de IA acessam dados, executam tarefas e integram-se entre plataformas. Sem uma segurança robusta de API, mesmo a IA mais avançada se torna uma vulnerabilidade em vez de um ativo,” alertaram os especialistas.
Como alerta, o risco com os sistemas de IA agentic não vem apenas dos componentes em si, mas quando os componentes são usados em conjunto – “O risco de segurança está nas lacunas.”
A proposta de equipes de teste de segurança para IA é sugerida para garantir que as implementações de IA sejam seguras, utilizando ferramentas como faturas de materiais de IA para verificar qual tecnologia está sendo usada e onde, além de documentar conexões e transferências entre agentes de IA.
“Os CISOs não têm visibilidade,” foi a conclusão. “É por isso que temos faturas de materiais de IA que permitem ver os modelos e conjuntos de dados que você está usando e as dependências em seu código e aplicações.”