Gestão de Riscos em TI: Expectativas da BaFin para o Uso de IA

Expectativas da BaFin para Gestão de Risco ICT e Uso de IA

Introdução

A Autoridade de Supervisão Financeira da Alemanha emitiu orientações não vinculativas para esclarecer como as instituições financeiras devem gerenciar os riscos de Tecnologia da Informação e Comunicação (ICT) decorrentes de sistemas baseados em Inteligência Artificial (IA), conforme o Regulamento (UE) 2022/2554 e regulamentos relacionados da UE.

Resultados das Orientações

Os sistemas de IA, especialmente IA generativa e modelos de linguagem de grande escala (LLM), devem ser totalmente integrados à governança existente de ICT, testes e estruturas de risco de terceiros, com um aumento na supervisão.

Olhando para o Futuro

As instituições financeiras que utilizam ou planejam implantar IA devem reavaliar suas práticas de governança, testes, terceirização em nuvem e relatórios de incidentes para atender às expectativas de supervisão em evolução.

Conteúdo das Orientações

As orientações visam fornecer direções adicionais às instituições financeiras sob supervisão sobre o tratamento de sistemas baseados em IA e sobre riscos de terceiros e terceirização. Incluem um estudo de caso de uma instituição que opera um assistente de IA baseado em LLM e uma análise ilustrativa dos riscos envolvidos, além do tratamento sob regulamentos específicos.

Governança e Controle de Risco

As instituições financeiras devem garantir que os sistemas baseados em IA sejam governados, seguros e monitorados de forma consistente dentro de suas estruturas de conformidade.

As medidas incluem:

  • Adotar uma estratégia de IA aprovada pela gestão, definindo responsabilidades claras e promovendo colaboração interdisciplinar.
  • Integrar sistemas baseados em IA no gerenciamento de riscos de ICT, cobrindo identificação, proteção, detecção, resposta a incidentes, recuperação e comunicação de crises.
  • Aplicar padrões robustos de desenvolvimento e documentação para desenvolvimentos internos de IA.
  • Estender as obrigações de teste a sistemas baseados em IA, dependendo da criticidade.
  • Implementar processos definidos durante a operação para sistemas baseados em IA, incluindo controle de acesso e monitoramento de desempenho.
  • Gerenciar riscos de terceiros de ICT, realizando avaliações de risco abrangentes e estabelecendo disposições contratuais claras.
  • Aplicar controles de segurança cibernética e de dados ao longo do ciclo de vida da IA.
  • Assegurar que incidentes relacionados à ICT envolvendo sistemas de IA sejam identificados e reportados adequadamente.

Conclusão

As orientações confirmam que os sistemas baseados em IA não estão sujeitos a um regime separado, mas devem ser incorporados à governança existente de ICT. Embora não sejam vinculativas, espera-se que as autoridades supervisoras as utilizem como referência, aumentando a supervisão sobre a integração de sistemas de IA nas estruturas de riscos de ICT.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...