Expansão da Superfície de Ataque da Infraestrutura Crítica pelo AI Agente
No final do inverno, dois desenvolvimentos chegaram em semanas sucessivas. Um sistema de inteligência artificial da saúde foi expandido para mais de 200 milhões de membros, conferindo-lhe autoridade autônoma para interpretar resultados de exames, gerenciar compromissos e apoiar prescrições, sem a necessidade de um clínico em cada interação rotineira. Na mesma semana, um relatório de ameaças revelou que o tempo médio para um atacante ganhar acesso inicial e começar a se mover lateralmente por uma rede caiu para menos de 30 minutos, com os casos mais rápidos medidos em segundos.
Desenvolvimento de AI Agente
O conceito de AI agente, que não apenas responde a consultas, mas também toma ações autônomas e inicia processos em nome das organizações, evoluiu de programas piloto para infraestrutura operacional em pouco mais de um ano. No setor de saúde, agentes de inteligência artificial estão integrados em suporte à decisão clínica, roteamento de pacientes, interpretação de resultados de exames e gestão de medicamentos. No setor financeiro, eles lidam com detecção de fraudes, aprovações de originação de empréstimos e decisões de negociação em tempo real.
Riscos Emergentes
Quando agentes de AI são incorporados na camada operacional de setores críticos, o modelo de segurança muda de maneiras que as estruturas atuais ainda estão tentando absorver. Um agente de AI comprometido dentro do fluxo de trabalho clínico de um hospital não é um incidente de malware tradicional, mas um tomador de decisões corrompido operando dentro da infraestrutura crítica. Um invasor não precisa necessariamente violar a rede subjacente, mas sim alcançar o agente. Em alguns casos, eles podem induzir o agente a tomar ações prejudiciais inserindo instruções maliciosas em conteúdo que o agente está processando.
Ciberataques Autônomos
Em setembro de 2025, foi documentado o primeiro ataque cibernético em larga escala em que um sistema de AI executou a maior parte da operação de forma autônoma. Um grupo patrocinado pelo estado utilizou um agente de codificação de AI para infiltrar aproximadamente 30 alvos globais. Os atacantes manipularam o agente disfarçando a operação como um teste legítimo de cibersegurança, induzindo-o a mapear a topologia da rede e identificar sistemas de alto valor.
Desafios de Governança
O governo federal começou a abordar esse problema seriamente. Publicações recentes abordam todas as 16 setores de infraestrutura crítica, focando nas vulnerabilidades associadas a ataques que utilizam AI e aqueles que visam sistemas de AI. A avaliação de risco para setores críticos não aborda completamente a probabilidade e os danos potenciais de ataques relacionados à AI, e recomendações foram feitas para atualizar as orientações nesse sentido.
Recomendações para Redução de Riscos
Três mudanças poderiam reduzir substancialmente os riscos existentes sem esperar por legislações abrangentes. Primeiro, as autoridades devem passar de orientações voluntárias para requisitos mínimos de segurança obrigatórios para agentes de AI implantados em infraestrutura crítica. Segundo, operadores de infraestrutura crítica devem ser obrigados a realizar avaliações de risco específicas para AI que abordem tanto a probabilidade quanto o impacto de compromissos de agentes. Terceiro, as agências responsáveis devem receber recursos dedicados para avaliar implantações de agentes de AI em seus setores e estabelecer padrões de segurança apropriados.
Conclusão
O setor privado já começou a responder a essas ameaças, lançando produtos de defesa cibernética específicos para agentes de AI. A curva de implantação e a curva de ataque se cruzaram, e o trabalho de governança precisa avançar rapidamente. A questão permanece: será que as bases serão estabelecidas antes que um adversário demonstre, em larga escala, o que acontece na ausência de governança eficaz?