A Governança de IA Move-se das Salas de Reunião para a Estratégia de Negócios
As organizações estão utilizando a IA em toda a sua cadeia de valor, tanto para aplicações internas quanto para interações com consumidores. Os casos de uso variam desde recrutamento e detecção de fraudes até suporte ao cliente e personalização.
Como resultado, a implementação de IA passou a figurar na agenda das diretorias. Pesquisas mostram que as diretorias com conhecimento em IA tiveram um retorno sobre o patrimônio líquido 10,9 pontos percentuais acima de seus pares do setor, tornando a IA uma alavanca estratégica para eficiência, velocidade e vantagem competitiva.
De Vantagem Competitiva a Risco de Governança
No entanto, a crescente integração da IA nas funções organizacionais principais e auxiliares introduz riscos estruturais. O controle de fornecedores é um dos muitos exemplos. Dados da empresa podem ser reutilizados ou retidos por ferramentas de IA de terceiros além dos propósitos acordados, comprometendo a confidencialidade.
Além disso, a dependência de IA de terceiros também amplifica a exposição regulatória, pois as empresas que implementam a IA provavelmente permanecerão responsáveis, apesar da visibilidade limitada sobre o design do modelo, dados de treinamento ou atualizações do sistema.
A implementação da IA também levanta preocupações sobre privacidade, uma vez que dados pessoais circulam por sistemas opacos. Isso limita a conformidade com obrigações de proteção de dados. Além disso, alucinações, preconceitos e falhas de precisão podem produzir resultados enganosos ou discriminatórios, e a falta de transparência em torno de testes e remediações agrava esses desafios.
Risco de IA na Prática: Lições de Implementações Recentes
Tribunais e reguladores estão cada vez mais examinando falhas relacionadas à IA. Por exemplo, uma empresa foi penalizada após seu algoritmo de classificação priorizar ofertas de hotéis de anunciantes que pagavam comissões mais altas, mesmo quando opções mais baratas estavam disponíveis. O regulador de concorrência da Austrália determinou que a empresa enganou os consumidores sobre os melhores preços disponíveis.
Além disso, riscos também surgiram do uso interno da IA. Funcionários introduziram informações organizacionais sensíveis em ferramentas de IA generativa, levando as empresas a recalibrar controles em torno da confidencialidade de dados e uso permitido.
As organizações estão fortalecendo suas defesas de governança ao estabelecer comitês de supervisão de IA, emitir políticas de uso interno e investir na sensibilização da força de trabalho. Os desenvolvimentos regulatórios estão acelerando ainda mais essa mudança. Com a Lei de IA da UE se movendo em direção à aplicação, investidores enfatizaram que as diretorias devem supervisionar como a IA é projetada, implementada e monitorada como parte de suas funções de governança.
A Abordagem da Índia para a Governança de IA
A Índia está traçando uma abordagem distinta e baseada em evidências para a governança da IA. Em vez de adotar um estatuto abrangente de IA, o foco está na operacionalização de princípios comuns para o uso responsável da IA em todos os setores. Esses princípios foram inicialmente articulados por um comitê do banco central para o setor financeiro.
O Ministério da Eletrônica e Tecnologia da Informação endossou subsequentemente esses princípios em suas diretrizes de governança de IA. Juntos, esses documentos enfatizam a necessidade de integrar princípios de confiança, justiça, responsabilidade, transparência e segurança no design para gerenciar riscos de IA. Esses princípios agora estão sendo traduzidos em expectativas concretas de governança.
Por exemplo, o banco central recomendou que as entidades regulamentadas adotem políticas de IA aprovadas pelo conselho, abrangendo governança, ética, responsabilidade e apetite ao risco. Da mesma forma, o órgão regulador do mercado propôs que os participantes do mercado designem a alta administração responsável pela supervisão da IA em todo o ciclo de vida, apoiados por estruturas de responsabilidade claras.
Três Passos Práticos para as Diretorias
Para implementar a IA de forma responsável, mantendo a agilidade nos negócios, as diretorias podem tomar três medidas:
Primeiro, avaliar o uso da IA e adotar uma política de governança básica. A adoção responsável da IA começa com a visibilidade organizacional. As diretorias devem encomendar um mapeamento em toda a organização sobre onde a IA é utilizada, para que finalidade e seu impacto potencial. Os casos de uso devem ser classificados em implementações voltadas para o consumidor e internas. Isso permite priorizar riscos e criar um inventário de IA que capture casos de uso, dados de entrada, fornecedores e níveis de risco.
Segundo, tratar a transparência do fornecedor e as salvaguardas contratuais como uma prioridade de governança. Seguindo as deliberações políticas da Índia, as organizações que implementam a IA provavelmente permanecerão responsáveis pelos resultados gerados pela IA, mesmo quando o modelo for fornecido por um terceiro. As diretorias devem garantir clareza sobre o que um sistema de IA faz, onde pode falhar e como utiliza dados. Os contratos com fornecedores devem definir limites claros sobre a reutilização de dados empresariais ou de clientes para treinamento de IA.
Terceiro, institucionalizar relatórios em nível de diretoria, monitoramento contínuo e resposta a incidentes. A Índia focou em uma abordagem baseada em evidências para gerenciar os riscos da IA, o que ajudará a desenvolver estruturas de avaliação e classificação de riscos apropriadas.
As organizações devem tratar o relato de incidentes de IA e o monitoramento contínuo como parte de sua estratégia de governança. As diretorias devem adotar políticas internas que incentivem a detecção precoce e o relato de boa-fé de incidentes relacionados à IA.
No mínimo, as diretorias devem exigir relatórios periódicos sobre casos de uso material de IA, principais riscos, dependências de fornecedores e eficácia de controles. Isso deve ser apoiado por um manual de resposta a incidentes claramente definido, abrangendo escalonamento, preservação de evidências e mecanismos de fallback.
Conclusão
Com o aumento da adoção da IA, as diretorias devem começar a deliberar sobre como governar a IA de forma responsável em grande escala. As discussões robustas de políticas da Índia oferecem às organizações insights valiosos para formular sua abordagem interna de governança. Os pioneiros que estabelecerem estruturas para promover visibilidade, garantir responsabilidade e operacionalizar mecanismos de escalonamento estarão melhor posicionados para aproveitar os benefícios da IA enquanto gerenciam efetivamente seus riscos.