Quando Cientistas de Dados Definem Políticas

O Ministério dos Algoritmos: Quando Cientistas de Dados Dirigem a Formulação de Políticas

Recentemente, diante de uma plateia cativa em Singapura, dois homens tiveram uma conversa que pode transformar a maneira como o mundo pensa sobre a regulação de IA. Um representa o lado dos fornecedores: Thomas Roehm, vice-presidente de marketing corporativo da SAS, armado com décadas de experiência em análises e histórias de implementações em empresas da Fortune 500. O outro ecoa o dilema do regulador: Frankie Phua, diretor administrativo e chefe de gestão de riscos do United Overseas Bank, que luta com uma questão fundamental que mantém os líderes de dados acordados à noite: Como governar a IA que evolui mais rápido do que as regras destinadas a contê-la?

A conversa, realizada no SAS Innovate On Tour em Singapura, fazia parte de uma discussão mais ampla sobre o Projeto MindForge, inovador em Singapura. Este projeto ofereceu um vislumbre raro de como a regulação orientada por dados realmente é construída, destacando a interseção complicada entre a realidade empresarial e a necessidade regulatória.

Dos princípios à prática: A estrutura regulatória orientada por dados

O Projeto MindForge é impulsionado pela Iniciativa Veritas, uma iniciativa da Autoridade Monetária de Singapura (MAS) que examinou os riscos e oportunidades da tecnologia de IA para o setor de serviços financeiros. Mas suas origens remontam ainda mais, à abordagem metódica de Singapura para a governança da IA, que começou em 2019 como parte da Estratégia Nacional de IA de Singapura.

“Devo dizer que estou muito orgulhoso de ser um singapurense trabalhando na indústria bancária de Singapura,” disse Phua ao público de Singapura. “Por que digo isso? Porque, ao longo do tempo, que começou em 2019, a MAS envolveu a indústria bancária para iniciar a jornada da IA.”

A Autoridade Monetária de Singapura começou com algo revolucionário: Phua supervisiona várias funções de gestão de riscos, incluindo risco de crédito, risco de mercado, risco operacional, risco tecnológico e risco ESG/climático. Ele tem mais de 30 anos de experiência extensa, tornando-o exatamente o tipo de praticante que os reguladores precisam envolver desde o início.

A jornada começou com o que Phua chamou de princípios FEAT, que representam Justiça, Ética, Responsabilidade e Transparência. “Basicamente, é muito importante falarmos sobre a governança da IA para termos um princípio de IA primeiro,” explicou Phua, “porque quando olhamos para qualquer governança, deve ser medida contra certos princípios.”

Porém, princípios sem operacionalização são apenas filosofia. O Projeto Veritas tentou traduzir esses quatro princípios em estruturas acionáveis. “Quais são as tarefas a serem realizadas para a justiça? Quais são os testes a serem realizados para a transparência, para a sustentabilidade?” disse Phua, compartilhando as questões que o projeto analisou. “Claro, tornou-se um processo mais desafiador.”

Agilidade regulatória na era do GenAI

“Em 2022, o ChatGPT surgiu. Começamos a falar sobre GenAI,” recordou Phua. De repente, as estruturas cuidadosamente construídas para a IA tradicional pareciam ultrapassadas. A indústria lançou o consórcio MindForge, que visa examinar os riscos e oportunidades da Gen AI na indústria de serviços financeiros.

Essa abordagem de risco-inovação é onde o MindForge se distingue das iniciativas regulatórias típicas. Em vez de funcionários do governo escreverem regras, Singapura criou o que Phua chama de abordagem de ecossistema — praticantes de bancos, seguradoras e empresas de tecnologia colaborando para escrever o manual para si mesmos.

“A MAS está deixando que as instituições financeiras em Singapura escrevam esse manual para a indústria, de modo que nos deixe tentar governar a IA de uma forma prática, em vez de sair com sua própria orientação e forçá-la aos bancos.”

A abordagem reflete uma percepção fundamental sobre a regulação moderna: em domínios tecnológicos que evoluem rapidamente, os regulados muitas vezes sabem mais sobre as implicações práticas do que os reguladores.

O paradigma de governança como código

Roehm, que é responsável pelo marketing corporativo da SAS, acrescenta um contexto crucial sobre por que isso importa além das fronteiras de Singapura.

Durante sua apresentação, que preparou o terreno para a discussão, Roehm delineou a tomada de decisões de IA já embutida em várias indústrias: “Hoje, ajudamos bancos a prever e prevenir fraudes enquanto analisamos bilhões de transações em todo o mundo,” explicou. “Estamos trabalhando com hotéis, ajudando-os a gerenciar uma variedade de dados para prever a demanda, gerenciar estoques e preços dinâmicos de quartos.”

Essas não são aplicações futuras, mas uma realidade atual. O desafio regulatório não é se preparar para a adoção da IA; é governar a IA que já está tomando decisões significativas — e esse é um ponto crítico.

Os exemplos de Roehm ilustraram os riscos: “No setor público, a SAS está trabalhando em conjunto com agências locais e federais para ajudar a melhorar vidas… fornecendo soluções que ajudam a identificar crianças em risco para assistentes sociais, ou soluções de Cidades Inteligentes que ajudam a prever e mitigar o risco de inundações.”

Quando sistemas de IA estão tomando decisões sobre o bem-estar infantil e a prevenção de inundações, o luxo de uma regulação lenta, baseada em consenso, evapora.

O desafio da taxonomia: Definindo IA para conformidade regulatória

Um dos momentos mais reveladores na conversa ocorreu quando Phua abordou o que considera o maior desafio na governança da IA: “Como você define IA? De fato, no Projeto MindForge, temos muitos debates sobre o que é IA.”

Isso não é uma divisão acadêmica. “Porque você está tentando governar a IA, precisa saber o que é IA,” enfatizou Phua. Para modelos tradicionais, a identificação era simples: se você construísse um modelo, sabia que tinha IA para governar. Mas a IA moderna apresenta cenários mais complexos.

Phua explicou como a IA incorporada pelos fornecedores com os conjuntos de soluções pode introduzir lacunas de governança. “Alguns fornecedores, no meio do caminho, introduzirão alguma IA — do ponto de vista da governança da IA, precisamos ter um processo para poder identificar [isso] para que possamos governar.”

Esse desafio definicional destaca por que a abordagem colaborativa de Singapura é importante. Reguladores que escrevem regras em isolamento podem perder essas complexidades práticas que os praticantes enfrentam diariamente.

Administração de dados e governança cognitiva

Ambos os palestrantes abordaram uma preocupação que assombra muitos líderes de dados: se os sistemas de IA poderiam erodir as capacidades cognitivas humanas. “Mesmo sem IA, muitos de nós não pensamos porque somos preguiçosos,” observou Phua, com sua característica franqueza. “É por isso que as pessoas caem em golpes.”

Mas sua experiência com GenAI sugere uma dinâmica diferente: “Recentemente eu estava na fila para comida… Então usei o ChatGPT. Estava, naquele momento, interessado em stablecoin… Fiz a primeira pergunta, e obtive a resposta. Não gostei. Perguntei novamente. Desafiei. Continuei perguntando. Eventualmente, obtive uma resposta muito boa.”

A chave para a insight: “Com o ChatGPT, com o GenAI, se soubermos como pensar criticamente, se soubermos como fazer as perguntas certas o tempo todo, na verdade, isso se torna uma ferramenta muito poderosa.”

Essa perspectiva reformula o desafio da governança. Em vez de proteger os humanos da IA, a governança eficaz pode se concentrar em aprimorar a colaboração humano-IA.

Arquitetura regulatória federada: Escalando o modelo de Singapura

A Fase 2 do Mind Forge está produzindo resultados tangíveis. “Este manual que vamos publicar em breve, porque acho que terminamos a redação,” revelou Phua. O manual fornecerá “orientações muito práticas” abordando 44 riscos de IA identificados com estratégias de mitigação específicas.

Mais importante ainda, a abordagem de Singapura oferece um modelo para outras jurisdições. Em vez de esperar por um entendimento perfeito antes de agir, eles estão construindo a infraestrutura de governança de forma iterativa, com profunda participação dos praticantes.

“Não estamos validando o modelo de GenAI em si,” explicou Phua sobre sua abordagem à IA generativa. “Estamos aplicando o modelo de GenAI… a casos de uso que queremos usar. Portanto, quando se fala sobre validação de IA, estamos falando sobre validar o caso de uso.”

Essa distinção entre validar modelos e validar aplicações representa um pensamento crítico sobre a governança em uma era de modelos fundamentais.

À medida que os líderes de dados em todo o mundo enfrentam desafios semelhantes, o projeto MindForge de Singapura oferece mais do que prescrições políticas.

A conversa entre Roehm e Phua sugere que estamos testemunhando o surgimento de um novo paradigma regulatório, onde a velocidade da mudança tecnológica exige abordagens colaborativas e iterativas para a governança. Ela demonstra que a governança eficaz da IA emerge da interseção entre a visão regulatória e a especialização dos praticantes, onde os dados não apenas informam as regras, mas ajudam a escrevê-las.

Se outras jurisdições conseguirão adaptar o modelo de Singapura permanece uma questão em aberto. E provavelmente será uma questão chave que determinará se a abordagem da nação insular pode estabelecer uma estrutura mais regional que interaja bem com outras agendas nacionais.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...