Exigências de Governança em IA: Risco, Auditoria e Garantia

O que os conselhos devem exigir da IA: avaliação, auditoria e garantia

Em um artigo anterior, foi argumentado que a governança da IA vai além da supervisão de alguns projetos tecnológicos e agora abrange garantir que as decisões habilitadas por IA em toda a organização permaneçam alinhadas com a estratégia, apetite ao risco e padrões éticos.

Uma pergunta natural para os conselhos é: além de estabelecer expectativas, como uma organização verifica se seus sistemas de IA estão realmente desempenhando conforme o esperado, de maneira responsável e dentro dos limites definidos?

A resposta reside em três disciplinas relacionadas, mas distintas: avaliação de risco de IA, auditoria de IA e garantia de IA. Conselhos familiarizados com a supervisão financeira acharão a lógica intuitiva. O desafio, e a oportunidade, é aplicar essa mesma disciplina à IA.

Três conceitos distintos, mas relacionados

É útil ser preciso sobre o que cada termo significa, pois muitas vezes são usados de forma intercambiável quando não deveriam ser.

A avaliação de risco de IA é o processo interno pelo qual uma organização identifica, avalia e prioriza os riscos associados aos seus sistemas de IA. Isso pergunta o que poderia dar errado, quão provável é e qual seria o impacto. Esta é a base sobre a qual tudo o mais se apoia. Sem uma avaliação de risco credível, nem a auditoria nem a garantia têm uma linha de base significativa para trabalhar.

A auditoria de IA é o exame independente de se um sistema de IA, ou a estrutura de governança ao seu redor, está em conformidade com padrões, políticas ou requisitos definidos. É um processo baseado em evidências conduzido por uma parte suficientemente independente dos responsáveis pelo sistema em revisão.

A garantia de IA é a conclusão formal, voltada para as partes interessadas, que emerge desse processo de auditoria. É a opinião profissional, emitida por uma parte qualificada e independente, que dá aos conselhos, reguladores, investidores e ao público confiança de que um sistema de IA ou estrutura de gerenciamento de IA atende a um padrão definido.

Fundamentando a garantia de IA

O conceito de garantia independente não é novo para os conselhos. Todo ano, auditores externos examinam as demonstrações financeiras de uma organização e emitem uma opinião; uma conclusão fundamentada em evidências, conduzida sob padrões internacionalmente reconhecidos.

A mesma lógica agora se aplica à IA. Quando uma organização faz uma declaração pública ou regulatória sobre seus sistemas de IA, que são justos, transparentes, em conformidade com um padrão definido ou livres de viés material, a questão é: quem valida independentemente essa afirmação, e sob qual estrutura profissional?

A resposta, para a profissão contábil e de auditoria, é o ISAE 3000, o Padrão Internacional de Compromissos de Garantia emitido pelo Conselho Internacional de Normas de Auditoria e Garantia. O ISAE 3000 governa compromissos de garantia sobre questões que não envolvem informações financeiras históricas.

Implicações para os conselhos

Três implicações práticas seguem deste quadro.

Primeiro, os conselhos devem perguntar se suas organizações realizaram avaliações rigorosas de risco de IA em sistemas materiais. Não um exercício único, mas um processo vivo que é atualizado à medida que os modelos são re-treinados.

Segundo, os conselhos devem distinguir entre auditoria interna e externa de IA. As funções de auditoria interna desempenham um papel crítico, mas os conselhos também devem considerar se uma auditoria independente de terceiros de sistemas de IA materiais é necessária.

Terceiro, à medida que as organizações fazem compromissos públicos sobre suas práticas de IA, os conselhos devem perguntar se esses compromissos são respaldados por garantias credíveis. Afirmar compromissos sem validação independente é, no mínimo, um risco reputacional esperando para acontecer.

Uma profissão ainda em construção

Seria incompleto apresentar essa paisagem sem reconhecer suas limitações atuais. A infraestrutura para a garantia de IA ainda está sendo construída. As competências dos auditores em IA, abrangendo aprendizado de máquina, viés algorítmico e transparência de modelos, ainda não estão uniformemente desenvolvidas.

Para organizações que ainda não estão prontas para buscar garantias formais, isso não é razão para ficar parado. Uma avaliação estruturada e regular de sistemas de IA materiais é um primeiro passo significativo e prático.

Os conselhos que encomendam tais avaliações hoje, mesmo informalmente, estão desenvolvendo a disciplina institucional que a prontidão para a garantia eventualmente exige.

Essa visão destaca a obrigação já existente das empresas como agentes morais com obrigações éticas para com suas partes interessadas. A obrigação de agir já está presente, e o que é necessário é a vontade organizacional para operacionalizá-la.

Os conselhos que se envolvem com a garantia de IA agora, fazem perguntas mais incisivas aos seus auditores e exigem mais do que afirmações da gestão, estarão não apenas reduzindo sua própria exposição, mas também ajudando a moldar o que a responsabilidade em IA deve parecer para as organizações.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...