Singapura lança primeiro quadro de governança global para IA Agentic
Em 22 de janeiro de 2026, Singapura apresentou o Modelo de Governança de IA para IA Agentic, reforçando seu compromisso em acompanhar os rápidos avanços na inteligência artificial. Este quadro representa o primeiro modelo de governança dedicado a sistemas de IA agentic, que são agentes de IA capazes de raciocinar, planejar e executar tarefas de forma independente em nome dos humanos.
Embora o MGF não imponha obrigações legais vinculativas, ele fornece uma forte indicação da trajetória regulatória de Singapura e estabelece melhores práticas para a adoção pela indústria. O quadro se baseia na suíte estabelecida de iniciativas de governança de IA de Singapura, incluindo o Modelo de Governança de IA de 2019, o quadro de testes AI Verify e o Global AI Assurance Pilot lançado em 2025. O que diferencia este novo quadro das iniciativas anteriores é seu foco nos riscos únicos apresentados por ferramentas de IA cada vez mais autônomas, como ações não autorizadas, uso indevido de dados, decisões tendenciosas e interrupções sistêmicas.
O que é IA Agentic?
A IA agentic refere-se a sistemas que podem planejar, raciocinar e agir em várias etapas para alcançar objetivos com mínima intervenção humana. Diferente da IA generativa, que produz saídas em resposta a comandos, a IA agentic pode iniciar ações, adaptar-se a novas informações e interagir com outros agentes ou sistemas para completar tarefas de forma autônoma.
No núcleo de muitos sistemas agentic estão modelos de linguagem que atuam como o cérebro central do agente. Esses modelos interpretam instruções em linguagem natural, elaboram estratégias para atingir metas e ativam ferramentas conectadas, como calculadoras e interfaces de aplicativos. Esses sistemas podem ser determinísticos, produzindo saídas consistentes para entradas idênticas, ou não determinísticos, onde os resultados variam mesmo com a mesma entrada. Este último introduz imprevisibilidade, exigindo supervisão e governança mais robustas.
Riscos da implementação da IA Agentic
Embora riscos como alucinação e viés já estejam associados à IA, eles podem causar danos maiores no contexto da IA agentic, pois erros podem se replicar em múltiplas saídas e processos. O MGF identifica cinco categorias de riscos:
- Ações errôneas: Agentes podem realizar tarefas incorretas, como agendar compromissos na data errada ou gerar códigos falhos.
- Ações não autorizadas: Agentes podem agir fora de seu escopo permitido, como executar transações sem a aprovação humana necessária.
- Ações tendenciosas ou injustas: Decisões tomadas por agentes podem resultar em resultados discriminatórios ou inequitativos.
- Vazamentos de dados: Informações sensíveis podem ser expostas ou mal utilizadas se os agentes falharem em reconhecer a confidencialidade.
- Interrupção de sistemas conectados: Falhas podem desestabilizar sistemas vinculados, como a exclusão de bases de código críticas.
Como o MGF aborda os riscos
O MGF propõe várias dimensões para abordar os riscos associados à IA agentic:
- Dimension 1: Avaliar e limitar riscos precocemente
Organizações devem avaliar se um caso de uso proposto é apropriado antes da implantação, considerando tanto o impacto quanto a probabilidade de erro. Fatores chave incluem a tolerância ao erro e o acesso a dados sensíveis.
- Dimension 2: Responsabilidade humana
A responsabilidade pelas ações da IA agentic deve ser distribuída entre os líderes, equipes de produto e segurança cibernética, assegurando que a supervisão humana seja mantida.
- Dimension 3: Controles técnicos ao longo do ciclo de vida
Medidas de segurança técnica devem ser incorporadas em todas as etapas, desde o desenvolvimento até a implantação e além.
- Dimension 4: Responsabilidade do usuário final
As organizações devem capacitar os usuários finais a interagir de forma responsável com a IA agentic, garantindo transparência e comunicação clara sobre limitações e pontos de escalonamento.
Conclusão
O MGF estabelece parâmetros claros para o uso responsável da IA agentic, oferecendo orientações práticas para construir confiança na implementação de tecnologias avançadas de IA. Embora o quadro não seja legalmente vinculativo, sinaliza a direção regulatória de Singapura e estabelece melhores práticas que as empresas podem adotar hoje.