Stakeholders pedem à BMA para evitar estruturas duplicadas específicas de IA
Os riscos relacionados à inteligência artificial são amplamente abordados por meio de estruturas regulatórias existentes, conforme informaram partes interessadas à autoridade reguladora durante a elaboração de um documento de discussão sobre o uso responsável da inteligência artificial no setor financeiro.
Inclui governança corporativa, conduta, gestão de riscos, riscos cibernéticos, resiliência operacional e requisitos de supervisão de terceiros. As partes interessadas incentivaram a BMA a evitar estruturas específicas de IA duplicadas e, em vez disso, integrar considerações de IA dentro das estruturas de gestão de riscos empresariais estabelecidas.
Abordagem de Governança
Os respondentes expressaram amplo apoio à abordagem baseada em resultados e orientada por princípios proposta pela autoridade para a governança da IA. A BMA observou que os respondentes geralmente concordaram que a IA pode trazer benefícios significativos quando implementada de maneira responsável, incluindo melhorias em eficiência, gestão de riscos, conformidade e integridade do mercado.
Entretanto, muitos stakeholders também advertiram contra requisitos excessivamente prescritivos ou específicos de tecnologia, observando o ritmo da mudança tecnológica e o risco de regras rígidas se tornarem rapidamente obsoletas. A BMA confirmou sua intenção de manter uma abordagem de supervisão neutra em relação à tecnologia.
Implicações e Riscos
Alguns respondentes sugeriram que a proporcionalidade deveria reconhecer mais explicitamente os benefícios esperados ou as vantagens competitivas da adoção da IA. Outros enfatizaram que a governança da IA deve ir além das considerações tradicionais de risco operacional, dado o impacto potencialmente transformador das mudanças nos negócios habilitadas pela IA.
As partes interessadas ressaltaram a crescente utilização da IA em funções de investimento, negociação, vigilância de mercado e pesquisa, além das potenciais implicações para a integridade do mercado e a estabilidade financeira. O feedback destacou riscos associados a comportamentos correlacionados ou de rebanho, dinâmicas de mercado aceleradas sob estresse, dependência de fontes de dados alternativas ou não estruturadas e o potencial para manipulação de mercado habilitada por IA.
A BMA notou comentários recentes de supervisão internacional que destacam o potencial para comportamentos não intencionais ou emergentes resultantes de interações entre sistemas de IA implantados de forma independente, particularmente em contextos de mercados de capitais.
Conclusão
Essas considerações informarão a avaliação contínua da BMA sobre a necessidade de orientações específicas para o setor ou esclarecimentos de supervisão para casos de uso de maior risco, que podem se basear em estruturas regulatórias existentes. As partes interessadas enfatizaram a importância do alinhamento regulatório internacional, especialmente para empresas que operam sob estruturas de governança de IA de grupo que devem cumprir múltiplos regimes regulatórios.
A BMA reconheceu a importância da implementação faseada, do engajamento de supervisão e do diálogo contínuo para apoiar a adoção proporcional e eficaz das práticas de governança de IA. O objetivo da autoridade é apoiar inovações responsáveis, garantindo que quaisquer melhorias nas expectativas de supervisão sejam práticas, baseadas em riscos e evitem duplicações desnecessárias ou cargas regulatórias não intencionais.