Setor Financeiro Despreparado para Conformidade com IA, CCO Deve Liderar Controles
Para prevenir acidentes decorrentes do uso da inteligência artificial no setor financeiro, é necessário um órgão decisório de IA liderado por um presidente de nível executivo que possa englobar todos os departamentos relevantes. Executivos de TI e gestão de riscos devem ser incluídos, mas o papel do Chief Consumer Officer (CCO) é o mais crítico.
Recentemente, foi ressaltado que a separação da organização de gestão de riscos de IA das unidades de planejamento e desenvolvimento de IA é recomendada para resolver conflitos de interesse. Regulamentações de gestão de riscos cobrindo áreas como desenvolvimento de sistemas de IA, proteção ao consumidor e diretrizes operacionais de comitês de ética de IA também devem ser estabelecidas como regras internas da empresa.
Desafios e Riscos
Foi enfatizado que abordagens sistemáticas para prevenir incidentes de IA devem ser aceleradas à medida que a IA se espalha nas operações comerciais. Incidentes de segurança recentes no setor financeiro surgiram principalmente porque a gestão anterior tratou o investimento em segurança como um custo, em vez de uma necessidade. Entre os possíveis incidentes estão clientes recebendo informações incorretas através de consultas de IA ou dados pessoais em conjuntos de treinamento de chatbots sendo expostos nas respostas.
O setor financeiro, incluindo bancos, seguros e valores mobiliários, é considerado o segmento com o maior potencial para IA. Um relatório recente indicou que 84% das instituições financeiras globalmente adotaram IA generativa em seus ambientes de trabalho, em comparação com aproximadamente 56% na Coreia. O maior obstáculo à adoção e expansão da IA é a ausência de estruturas de governança e gestão de riscos de IA.
Deficiências e Necessidades
As empresas financeiras nacionais estão particularmente deficientes em taxas de prestação de serviços e obrigações de conformidade relacionadas à IA de alto impacto – sistemas que podem afetar significativamente a vida, a segurança física ou os direitos fundamentais. Uma pesquisa revelou que apenas 8% das empresas financeiras domésticas oferecem serviços de IA de alto impacto, com muitas falhando em cumprir suas responsabilidades em áreas como medidas de gestão de riscos e proteção ao usuário.
O Framework de Gestão de Risco de IA foi desenvolvido para estabelecer governança e gestão de riscos de IA. Essa estrutura, organizada em torno de três pilares—governança, avaliação de riscos e controle de riscos—serve como um guia fundamental para que as empresas financeiras gerenciem riscos de forma independente. Na avaliação de riscos, onde as empresas enfrentam as maiores dificuldades, a estrutura mede os níveis de risco subdividindo quatro princípios—legalidade, confiabilidade, boa fé e segurança—em três a cinco itens de avaliação cada um, e então determina o nível de controle para produtos ou serviços com base nos resultados.
Perspectivas Futuras
Com a Lei Básica de IA implementada, os serviços de IA de alto impacto no setor financeiro estão atualmente limitados a “empréstimos através de triagem sem intervenção humana” no setor bancário. No entanto, esse escopo provavelmente se expandirá com o avanço tecnológico, o que torna ainda mais necessário que o setor financeiro se concentre em medidas de gestão de riscos.
Concluindo, sistemas de controle interno autônomos são fundamentais, uma vez que as regulamentações nunca conseguirão acompanhar o avanço tecnológico da IA. A recente incidência em uma troca de criptomoedas poderia ter sido evitada se as autorregulações internas tivessem sido devidamente seguidas. Com a tecnologia de IA superando a regulamentação, o crescimento sustentável só será possível quando as empresas financeiras construírem sistemas de gestão de riscos responsáveis por conta própria.