Regulamentação da IA: Singapura Prioriza Supervisão Humana

Agentic AI recebe um novo framework de regras: o governo de Cingapura insiste que humanos permaneçam no controle

Enquanto empresas de inteligência artificial (IA) continuam a apresentar os benefícios de agentes de IA que podem automatizar certos fluxos de trabalho em ambientes empresariais, o governo de Cingapura lançou um novo framework projetado para proteger contra os riscos associados ao uso de IA agentic e garantir o desenvolvimento responsável dessa tecnologia.

O novo framework

O framework de Governança de IA Modelo para IA Agentic, publicado recentemente, enfoca os riscos dessa tecnologia e seu impacto sobre os humanos no local de trabalho. Este novo framework é uma atualização do modelo de 2019, que se concentrava em princípios de IA como transparência, equidade e centralidade humana.

Uso de IA em serviços governamentais

Cingapura é um dos países que utiliza IA em serviços governamentais, com assistentes virtuais já implantados no setor público. O assistente virtual “Ask Jamie” respondeu a mais de 15 milhões de consultas desde 2014, resolvendo metade das questões que teriam sido redirecionadas a um humano.

Importância da supervisão humana

O framework de Cingapura destaca que a supervisão humana é um elemento crucial e obrigatório. Embora os agentes possam agir de forma autônoma, a responsabilidade humana continua a ser aplicável. Assim que a autorização para implantar IA agentic é concedida, as organizações devem tomar medidas imediatas para assegurar que humanos sejam responsabilizados de forma significativa.

Riscos associados à IA agentic

Os riscos associados à IA agentic começam com os modelos de linguagem. As ameaças incluem deficiências inerentes, como alucinações, preconceitos, vazamento de dados e injeções de prompts adversariais, além de vulnerabilidades de software, como a infecção por códigos maliciosos.

Limitação do poder dos agentes

As diretrizes de Cingapura exigem que as organizações garantam que os poderes dos agentes sejam limitados, equilibrando os riscos potenciais. É necessário definir políticas que permitam acesso mínimo aos agentes às ferramentas e dados necessários para suas tarefas. Por exemplo, um assistente de codificação não precisa de acesso à pesquisa na web se tiver acesso à documentação de software mais recente.

Conclusão

À medida que a adoção de agentes de IA se expande, é fundamental que as organizações implementem mecanismos de controle e supervisão. A gestão da identidade e o controle de acesso são essenciais para garantir a responsabilização e a rastreabilidade, tanto para humanos quanto para agentes autônomos. O novo framework de Cingapura oferece um modelo prático para o desenvolvimento e a implantação responsável da IA agentic.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...