Introdução
Autoridades reguladoras têm apontado lacunas significativas na governança e na garantia de agentes de IA em instituições financeiras, à medida que essas organizações ampliam o uso de IA em operações internas e de atendimento ao cliente.
Análise dos principais achados
Uso crescente de IA e maturidade variável
Foi constatado que a IA está presente em todas as entidades avaliadas, porém a maturidade em gestão de riscos e resiliência operacional varia consideravelmente.
Deficiências de governança
Identificaram‑se falhas na monitorização do comportamento dos modelos, na gestão de mudanças, na desativação de sistemas e na necessidade de inventários de ferramentas de IA com responsáveis designados.
Dependência de fornecedores
Algumas instituições dependem excessivamente de um único provedor para múltiplas instâncias de IA, sem planos claros de saída ou estratégias de substituição.
Riscos de segurança cibernética
A adoção de IA introduz novas vias de ataque, como injeção de prompts e integrações inseguras, exigindo controles reforçados de identidade, acesso e gerenciamento de privilégios.
Implicações e riscos
A falta de escrutínio adequado pode levar a comportamentos imprevisíveis dos modelos, viés algorítmico e falhas críticas que afetam operações essenciais. Além disso, a ausência de controles humanos em decisões de alto risco aumenta a vulnerabilidade a incidentes de segurança.
Conclusão
É essencial que as entidades estabeleçam estruturas robustas de governança de IA, incluindo monitoramento contínuo, gestão de mudanças, planos de desativação e estratégias de diversificação de fornecedores. O fortalecimento dos controles de segurança e a integração de processos de avaliação humana são fundamentais para mitigar riscos e garantir a resiliência operacional diante da expansão do uso de IA.