Os Reguladores Financeiros Precisam Incorporar Ética em Seus Sistemas de IA
À medida que a inteligência artificial (IA) desempenha um papel crescente na regulação de bancos e outras instituições financeiras, os reguladores precisam garantir que esses novos sistemas não estejam importando preconceitos antigos para a supervisão moderna.
O Que Está em Jogo
A IA de supervisão não monitorada ameaça a integridade do mercado, a inclusão financeira e a confiança pública. As decisões de supervisão devem permanecer explicáveis e responsáveis, exigindo um “humano no loop” para todas as intervenções significativas.
Dados de Apoio
Atualmente, 67% das agências utilizam IA; 37% relatam a ausência de uma governança formal ou de um quadro ético.
Mais de dois terços das autoridades financeiras do mundo estão apostando na IA para gerenciar nossas economias, e como é possível que mais da metade delas esteja fazendo isso sem diretrizes éticas? Menos de 9% das autoridades financeiras atualmente consideram o preconceito algorítmico como um desafio digno de ser resolvido. Um cenário financeiro intensivo em tecnologia pode realmente permanecer inclusivo e transparente se as ferramentas usadas para supervisioná-lo operam em um vácuo de governança?
Análise da Situação Atual
As autoridades financeiras, incluindo bancos centrais e comissões de valores mobiliários, estão cada vez mais apostando na IA para detectar padrões complexos de lavagem de dinheiro e prever choques sistêmicos no setor bancário. No entanto, quando a governança fica atrás da tecnologia, as consequências podem incluir a erosão da confiança, a fraqueza da integridade do mercado e danos não intencionais.
Nos últimos anos, observou-se uma transição das autoridades financeiras de planilhas baseadas em papel para lagos de dados em alta frequência. Até agora, 67% das agências de supervisão estão implantando, pilotando ou explorando a IA para uma variedade de casos de uso de alto impacto.
Desconexão entre Tecnologia e Governança
Os dados mais recentes revelam uma desconexão alarmante entre a ambição tecnológica e a supervisão institucional. Mais da metade das autoridades pesquisadas carece de estruturas claras de governança para tecnologias de supervisão habilitadas por IA.
As estatísticas são reveladoras: mais de um terço das agências (37%) relatam não ter um quadro formal de governança ou ético para a IA na supervisão, enquanto apenas 3% desenvolveram um quadro interno dedicado especificamente para aplicações de supervisão. Além disso, apenas 4% alinham-se explicitamente com padrões internacionais.
Riscos Éticos e Algorítmicos
É preocupante que a maioria das autoridades não reconheça o risco ético como um desafio de supervisão. Apenas 8,8% identificam preocupações éticas ou impactos sociais não intencionais como um problema. Essa falta de reconhecimento pode resultar em desigualdades ampliadas por meio da IA.
Além disso, 18% das agências citam preocupações com “caixas pretas” como uma barreira significativa. As decisões de supervisão devem permanecer explicáveis e responsáveis, com a inclusão de humanos nas intervenções significativas.
A Necessidade de Governança Sólida de Dados
A governança de dados forte é um elemento essencial da infraestrutura ética. Isso inclui a propriedade clara dos dados, documentação da origem dos dados e controles de qualidade em andamento. Sem uma governança de dados eficaz, os sistemas de IA, mesmo os mais bem-intencionados, podem reforçar lacunas existentes.
Conclusão
A transformação da supervisão não depende mais da disponibilidade de ferramentas, mas da governança e da confiança que as sustentam. Não podemos permitir que mais de 60% das autoridades se precipitem em um futuro movido pela IA enquanto a maioria ainda carece de estruturas básicas de responsabilidade. A implementação desses sistemas sem um suporte adequado representa um risco sistêmico que pode levar a resultados discriminatórios e à perda da confiança pública, desestabilizando toda a economia.