As empresas já estão usando IA agentiva para tomar decisões, mas a governança está atrasada
As empresas estão agindo rapidamente para adotar a IA agentiva – sistemas de inteligência artificial que funcionam sem orientação humana – mas têm sido muito mais lentas em implementar a governança necessária para supervisioná-los, segundo uma nova pesquisa. Essa discrepância é uma fonte significativa de risco na adoção da IA, e também representa uma oportunidade de negócios.
Adoção de IA agentiva
Uma pesquisa recente revelou que 41% das organizações estão usando IA agentiva em suas operações diárias. Essas implementações não são apenas projetos piloto ou testes isolados; elas fazem parte dos fluxos de trabalho regulares.
Atraso na governança
Em contrapartida, a governança está atrasada. Apenas 27% das organizações afirmam que suas estruturas de governança são maduras o suficiente para monitorar e gerenciar esses sistemas de forma eficaz. A governança, nesse contexto, não se refere à regulamentação ou regras desnecessárias, mas a ter políticas e práticas que permitam que as pessoas influenciem claramente como os sistemas autônomos operam.
Riscos associados à falta de governança
Esse descompasso pode se tornar problemático quando sistemas autônomos agem em situações reais antes que alguém possa intervir. Um exemplo recente foi durante uma queda de energia, onde táxis autônomos ficaram presos em interseções, bloqueando veículos de emergência. Isso demonstrou que, mesmo quando os sistemas autônomos se comportam “como projetado”, condições inesperadas podem levar a resultados indesejáveis.
Isso levanta uma grande questão: quando algo dá errado com a IA, quem é responsável – e quem pode intervir?
A importância da governança
Quando os sistemas de IA agem por conta própria, a responsabilidade não recai mais onde as organizações esperam. As decisões ainda ocorrem, mas a propriedade se torna mais difícil de rastrear. Por exemplo, em serviços financeiros, sistemas de detecção de fraudes atuam em tempo real para bloquear atividades suspeitas antes que um humano revise o caso.
Se um cartão é indevidamente recusado por um sistema de IA, o problema não está na tecnologia em si – que está funcionando conforme projetado – mas na responsabilização. A pesquisa sobre governança entre humanos e IA mostra que os problemas ocorrem quando as organizações não definem claramente como as pessoas e os sistemas autônomos devem trabalhar juntos.
Intervenção humana tardia
Em muitas organizações, os humanos estão tecnicamente “no loop”, mas apenas depois que os sistemas autônomos já atuaram. As pessoas tendem a se envolver uma vez que um problema se torna visível, o que limita a responsabilidade. A correção de decisões pode ocorrer, mas a responsabilidade continua obscura.
Governança e resultados a longo prazo
A IA agentiva muitas vezes traz resultados rápidos, especialmente quando as tarefas são automatizadas pela primeira vez. No entanto, à medida que os sistemas autônomos crescem, as organizações frequentemente adicionam verificações manuais e etapas de aprovação para gerenciar riscos. Com o tempo, o que antes era simples torna-se mais complicado, desacelerando a tomada de decisões.
A boa governança não limita a autonomia; em vez disso, a torna viável, esclarecendo quem possui as decisões, como o funcionamento dos sistemas é monitorado e quando as pessoas devem intervir. A governança inteligente será a próxima vantagem competitiva na IA. À medida que os sistemas autônomos assumem mais responsabilidades, o sucesso pertencerá às organizações que definirem claramente a propriedade, supervisão e intervenção desde o início.
Na era da IA agentiva, a confiança será acumulada nas organizações que melhor governam, e não simplesmente nas que adotam primeiro.