Singapura apresenta o primeiro framework global de governança para IA Agentic

Singapura lança primeiro quadro de governança global para IA Agentic

Em 22 de janeiro de 2026, Singapura apresentou o Modelo de Governança de IA para IA Agentic, reforçando seu compromisso em acompanhar os rápidos avanços na inteligência artificial. Este quadro representa o primeiro modelo de governança dedicado a sistemas de IA agentic, que são agentes de IA capazes de raciocinar, planejar e executar tarefas de forma independente em nome dos humanos.

Embora o MGF não imponha obrigações legais vinculativas, ele fornece uma forte indicação da trajetória regulatória de Singapura e estabelece melhores práticas para a adoção pela indústria. O quadro se baseia na suíte estabelecida de iniciativas de governança de IA de Singapura, incluindo o Modelo de Governança de IA de 2019, o quadro de testes AI Verify e o Global AI Assurance Pilot lançado em 2025. O que diferencia este novo quadro das iniciativas anteriores é seu foco nos riscos únicos apresentados por ferramentas de IA cada vez mais autônomas, como ações não autorizadas, uso indevido de dados, decisões tendenciosas e interrupções sistêmicas.

O que é IA Agentic?

A IA agentic refere-se a sistemas que podem planejar, raciocinar e agir em várias etapas para alcançar objetivos com mínima intervenção humana. Diferente da IA generativa, que produz saídas em resposta a comandos, a IA agentic pode iniciar ações, adaptar-se a novas informações e interagir com outros agentes ou sistemas para completar tarefas de forma autônoma.

No núcleo de muitos sistemas agentic estão modelos de linguagem que atuam como o cérebro central do agente. Esses modelos interpretam instruções em linguagem natural, elaboram estratégias para atingir metas e ativam ferramentas conectadas, como calculadoras e interfaces de aplicativos. Esses sistemas podem ser determinísticos, produzindo saídas consistentes para entradas idênticas, ou não determinísticos, onde os resultados variam mesmo com a mesma entrada. Este último introduz imprevisibilidade, exigindo supervisão e governança mais robustas.

Riscos da implementação da IA Agentic

Embora riscos como alucinação e viés já estejam associados à IA, eles podem causar danos maiores no contexto da IA agentic, pois erros podem se replicar em múltiplas saídas e processos. O MGF identifica cinco categorias de riscos:

  • Ações errôneas: Agentes podem realizar tarefas incorretas, como agendar compromissos na data errada ou gerar códigos falhos.
  • Ações não autorizadas: Agentes podem agir fora de seu escopo permitido, como executar transações sem a aprovação humana necessária.
  • Ações tendenciosas ou injustas: Decisões tomadas por agentes podem resultar em resultados discriminatórios ou inequitativos.
  • Vazamentos de dados: Informações sensíveis podem ser expostas ou mal utilizadas se os agentes falharem em reconhecer a confidencialidade.
  • Interrupção de sistemas conectados: Falhas podem desestabilizar sistemas vinculados, como a exclusão de bases de código críticas.

Como o MGF aborda os riscos

O MGF propõe várias dimensões para abordar os riscos associados à IA agentic:

  1. Dimension 1: Avaliar e limitar riscos precocemente

    Organizações devem avaliar se um caso de uso proposto é apropriado antes da implantação, considerando tanto o impacto quanto a probabilidade de erro. Fatores chave incluem a tolerância ao erro e o acesso a dados sensíveis.

  2. Dimension 2: Responsabilidade humana

    A responsabilidade pelas ações da IA agentic deve ser distribuída entre os líderes, equipes de produto e segurança cibernética, assegurando que a supervisão humana seja mantida.

  3. Dimension 3: Controles técnicos ao longo do ciclo de vida

    Medidas de segurança técnica devem ser incorporadas em todas as etapas, desde o desenvolvimento até a implantação e além.

  4. Dimension 4: Responsabilidade do usuário final

    As organizações devem capacitar os usuários finais a interagir de forma responsável com a IA agentic, garantindo transparência e comunicação clara sobre limitações e pontos de escalonamento.

Conclusão

O MGF estabelece parâmetros claros para o uso responsável da IA agentic, oferecendo orientações práticas para construir confiança na implementação de tecnologias avançadas de IA. Embora o quadro não seja legalmente vinculativo, sinaliza a direção regulatória de Singapura e estabelece melhores práticas que as empresas podem adotar hoje.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...