Como os investidores ativistas podem transformar o uso de IA em um teste de governança
Os investidores ativistas podem começar a examinar com rigor como os conselhos utilizam a IA, assim como fazem com questões de ESG e cibersegurança. A questão não é a eficiência, mas a eficácia fiduciária.
Transparência e Uso de Ferramentas de IA
A transparência em relação à IA se concentrará em saber se os diretores estão utilizando plenamente as ferramentas disponíveis para cumprir suas funções. Com ferramentas de IA, é muito mais fácil coletar dados, realizar benchmarks, conduzir pesquisas e realizar análises de cenários. A fiscalização se concentrará em se os diretores estão usando a IA de forma plena e eficaz para cumprir suas obrigações.
Expectativas e Consequências Legais
A expectativa pode eventualmente se refletir nos tribunais. Caso um conselho não utilize IA e falhe em atingir metas, isso pode ser interpretado como uma violação do dever fiduciário. A questão será se os diretores cumpriram suas obrigações quando ferramentas amplamente disponíveis poderiam ter melhorado a tomada de decisões.
Fluência em IA
A fluência em IA será central nesse debate. Os conselhos serão cada vez mais avaliados pela sua compreensão de como a IA afeta os negócios, desde cadeias de suprimento e produtos até oportunidades de mercado e estratégia. Para participar dessas discussões, os conselhos precisam de um nível básico de fluência em IA.
Essa fluência não virá de uma única fonte. Os conselhos devem tratar a educação em IA da mesma forma que tratam outros tópicos de governança. Assim como recebem educação sobre negociação interna, tendências de compensação e práticas de auditoria, a IA deve fazer parte da educação básica do conselho.
Riscos de Governança e Confidencialidade
Atualmente, muitos diretores já estão utilizando ferramentas de IA sem orientação formal, o que gera riscos de governança e confidencialidade. Pesquisas mostram que cerca de 66% dos diretores estão inserindo materiais de reuniões em ferramentas de IA de código aberto para resumir e extrair insights, enquanto apenas cerca de 20% possuem políticas ou diretrizes de uso de IA. Essa lacuna expõe as empresas a riscos relacionados à confidencialidade e ao privilégio advogado-cliente.
Além disso, gravar e transcrever reuniões de conselhos com IA levanta preocupações semelhantes. Os principais riscos incluem confidencialidade e descoberta legal, com questões em torno de quanto tempo as transcrições são mantidas, quem pode acessá-las e como são armazenadas.
A Necessidade de Documentação e Educação
Os conselhos devem documentar cuidadosamente a supervisão da IA. Essa supervisão deve ser visível nos materiais do conselho, relatórios e atas, com a IA incorporada nas discussões sobre estratégia, força de trabalho e risco. A educação em IA deve ser explicitamente incorporada ao desenvolvimento contínuo do conselho.
Qualidade da Decisão e a Importância do Julgamento Humano
O julgamento humano continua sendo essencial. Para decisões de governança de alto risco, recomenda-se manter a supervisão humana dentro do processo, e o conteúdo gerado por IA deve ser claramente rotulado. A transparência no uso da IA deve ser normalizada, em vez de oculta.
Conclusão
Os conselhos que se destacam serão aqueles que vão além da conscientização para a alfabetização em IA, considerando a IA em estratégia, talento e operações do conselho. À medida que a IA se torna mais incorporada à governança, o papel do conselheiro geral também está mudando, tornando-se mais estratégico e ligado à gestão de riscos empresariais.
À medida que os conselhos, investidores e reguladores recalibram as expectativas, a questão pode não ser mais se os diretores podem usar IA, mas se conseguem justificar a não utilização dela.