Agentic AI recebe um novo framework de regras: o governo de Cingapura insiste que humanos permaneçam no controle
Enquanto empresas de inteligência artificial (IA) continuam a apresentar os benefícios de agentes de IA que podem automatizar certos fluxos de trabalho em ambientes empresariais, o governo de Cingapura lançou um novo framework projetado para proteger contra os riscos associados ao uso de IA agentic e garantir o desenvolvimento responsável dessa tecnologia.
O novo framework
O framework de Governança de IA Modelo para IA Agentic, publicado recentemente, enfoca os riscos dessa tecnologia e seu impacto sobre os humanos no local de trabalho. Este novo framework é uma atualização do modelo de 2019, que se concentrava em princípios de IA como transparência, equidade e centralidade humana.
Uso de IA em serviços governamentais
Cingapura é um dos países que utiliza IA em serviços governamentais, com assistentes virtuais já implantados no setor público. O assistente virtual “Ask Jamie” respondeu a mais de 15 milhões de consultas desde 2014, resolvendo metade das questões que teriam sido redirecionadas a um humano.
Importância da supervisão humana
O framework de Cingapura destaca que a supervisão humana é um elemento crucial e obrigatório. Embora os agentes possam agir de forma autônoma, a responsabilidade humana continua a ser aplicável. Assim que a autorização para implantar IA agentic é concedida, as organizações devem tomar medidas imediatas para assegurar que humanos sejam responsabilizados de forma significativa.
Riscos associados à IA agentic
Os riscos associados à IA agentic começam com os modelos de linguagem. As ameaças incluem deficiências inerentes, como alucinações, preconceitos, vazamento de dados e injeções de prompts adversariais, além de vulnerabilidades de software, como a infecção por códigos maliciosos.
Limitação do poder dos agentes
As diretrizes de Cingapura exigem que as organizações garantam que os poderes dos agentes sejam limitados, equilibrando os riscos potenciais. É necessário definir políticas que permitam acesso mínimo aos agentes às ferramentas e dados necessários para suas tarefas. Por exemplo, um assistente de codificação não precisa de acesso à pesquisa na web se tiver acesso à documentação de software mais recente.
Conclusão
À medida que a adoção de agentes de IA se expande, é fundamental que as organizações implementem mecanismos de controle e supervisão. A gestão da identidade e o controle de acesso são essenciais para garantir a responsabilização e a rastreabilidade, tanto para humanos quanto para agentes autônomos. O novo framework de Cingapura oferece um modelo prático para o desenvolvimento e a implantação responsável da IA agentic.