Riscos de Segurança da IA Agente: Um Alerta Emergente

#Infosec2025: Crescente Preocupação com os Riscos de Segurança da IA Agentic

A Inteligência Artificial Agentic e as ferramentas de IA que se conectam entre si sem supervisão humana apresentam riscos de segurança crescentes, segundo especialistas.

O Que é a IA Agentic?

A IA agentic, ou agentes de IA, opera com um alto grau de autonomia. Um sistema agentic pode escolher o modelo de IA que utiliza, passar dados ou resultados para outra ferramenta de IA ou até mesmo tomar decisões sem a aprovação humana.

Esses sistemas funcionam a uma velocidade muito maior em comparação com as gerações anteriores de sistemas baseados em modelos de linguagem grandes (LLMs), já que operam sem a necessidade de um ser humano para fornecer instruções ou comandos. Além disso, eles podem aprender com a prática, adaptando os modelos e comandos que utilizam.

Riscos Associados à IA Agentic

Dificuldades podem surgir quando as organizações conectam componentes de IA, como ferramentas de IA generativa ou chatbots, sem verificações adicionais, ou permitem que os agentes de IA tomem decisões de forma autônoma. Isso já está acontecendo em áreas como desenvolvimento de código e configuração de sistemas.

Isso levanta o risco de que as implementações de IA nas organizações estejam avançando mais rapidamente do que os controles de segurança.

De acordo com uma pesquisa da empresa de consultoria EY, apenas 31% das organizações afirmam que sua implementação de IA está totalmente madura. Além disso, a governança de IA nas empresas fica atrás da inovação em IA.

Riscos e Brechas de Segurança

Os sistemas de IA agentic estão sujeitos a todos os mesmos riscos que incluem injeção de comandos, envenenamento, viés e imprecisões. No entanto, os problemas podem piorar quando um agente passa dados imprecisos, enviesados ou manipulados para outro. Mesmo uma taxa de erro relativamente baixa, de alguns pontos percentuais, pode se tornar um erro significativo se for acumulada entre subsistemas.

A segurança é ainda mais comprometida se as ferramentas de IA estão conectadas a fontes de dados fora do controle da empresa.

“Em vez de a IA conversar diretamente com os humanos, ela está conversando com outros sistemas de IA,” explicou um especialista em IA.

“Precisamos de uma camada de segurança intermediária para IA, especialmente se você estiver coletando ou ingeriando informações de fora.”

Desafios e Oportunidades

O rápido desenvolvimento da IA agentic significa que as equipes de segurança devem trabalhar rapidamente para identificar e relatar potenciais riscos de segurança. A pesquisa da EY revelou que 76% das empresas já estão usando IA agentic ou planejam fazê-lo dentro de um ano. No entanto, apenas 56% disseram que estavam moderadamente ou totalmente familiarizadas com os riscos.

“A implementação de IA é diferente da implantação de tecnologias anteriores,” observou a pesquisa. “Não é um exercício de ‘uma vez e acabou’, mas uma jornada, onde sua governança e controles de IA precisam acompanhar os investimentos em funcionalidade de IA.”

Implicações para as Organizações

Os conselhos de administração desejarão ver medidas para garantir o uso seguro da IA, incluindo a IA agentic. De acordo com especialistas, a rápida adoção da IA agentic está pressionando as organizações a reforçar seus controles e políticas, além de examinar se os sistemas agentic aumentam sua superfície de ataque.

“A IA agentic não está mais apenas no laboratório,” observou um diretor de segurança.

O desenvolvimento de código é uma área onde os agentes estão sendo usados. “Se os agentes estão escrevendo código, isso precisa ser seguro,” alertou.

“Você precisa testar o código gerado pelos agentes, além de dar a eles as diretrizes adequadas.”

Os desenvolvedores estão utilizando a IA agentic porque ela acelera a produção de código. Em outras empresas, os agentes estão sendo usados para melhorar o atendimento ao cliente e a automação.

Enquanto os bots de atendimento ao cliente da geração anterior ficavam sem respostas e eram forçados a passar os usuários para um agente humano, os sistemas de IA agentic são mais propensos a resolver problemas por conta própria.

“Os agentes de IA estão rapidamente transformando a forma como as empresas interagem com os clientes, automatizam operações e entregam serviços,” afirmaram especialistas em estratégia de cibersegurança.

Mas isso depende tanto dos desenvolvedores das ferramentas de IA quanto das equipes de TI que as implementam, para garantir que as APIs que conectam as ferramentas de IA também sejam seguras.

“Esses interfaces não são apenas conectores técnicos, eles fornecem os canais pelos quais os agentes de IA acessam dados, executam tarefas e integram-se entre plataformas. Sem uma segurança robusta de API, mesmo a IA mais avançada se torna uma vulnerabilidade em vez de um ativo,” alertaram os especialistas.

Como alerta, o risco com os sistemas de IA agentic não vem apenas dos componentes em si, mas quando os componentes são usados em conjunto – “O risco de segurança está nas lacunas.”

A proposta de equipes de teste de segurança para IA é sugerida para garantir que as implementações de IA sejam seguras, utilizando ferramentas como faturas de materiais de IA para verificar qual tecnologia está sendo usada e onde, além de documentar conexões e transferências entre agentes de IA.

“Os CISOs não têm visibilidade,” foi a conclusão. “É por isso que temos faturas de materiais de IA que permitem ver os modelos e conjuntos de dados que você está usando e as dependências em seu código e aplicações.”

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...