Regulação da IA: Desafios e Abordagens Práticas

Professor da Universidade Brown Discute a Regulação da IA

Em 23 de setembro de 2025, o Professor Suresh Venkatasubramanian, especialista em segurança de IA, visitou a Carnegie Mellon University para apresentar uma palestra sobre abordagens para a regulação da inteligência artificial (IA) e a avaliação da equidade no uso da IA.

Professor na Universidade Brown e Co-Diretor do recém-estabelecido Instituto de Pesquisa em IA para Assistentes (ARIA), Venkatasubramanian anteriormente atuou como Diretor Assistente de Ciência e Justiça no Escritório de Política de Ciência e Tecnologia da Casa Branca durante a administração do ex-presidente Joe Biden. Nessa função, ele co-autorizou o “Blueprint for an AI Bill of Rights“.

Mudanças na Atitude Administrativa em Relação à IA

Venkatasubramanian observou uma mudança drástica na atitude administrativa em relação à regulação da IA. O que começou como uma postura cautelosa e reservada evoluiu para uma aceleração completa, solidificando a influência da IA na sociedade.

Ele descreve uma sensação de “profunda depressão e medo existencial em torno do futuro da governança da IA”, que tem persistido desde então.

As Ordens Executivas de Biden em 2023 impuseram um controle regulatório mais rigoroso sobre a avaliação de riscos no desenvolvimento e nas aplicações de IA, com especial atenção ao combate à discriminação estrutural. A administração anterior de Trump reverteu grande parte desse esforço, pausando o estabelecimento de regulamentações sobre IA, mas preservando disposições de apoio, como incentivos para projetos de infraestrutura de data centers.

Atualmente, o governo federal adota uma abordagem deregulatória e pro-inovação para acelerar o desenvolvimento da IA, considerando-a um fator decisivo na competição global.

Modelo de Investigação Triangular

Dada a velocidade do desenvolvimento e o crescente poder da IA, a ausência de diretrizes regulatórias claras levou os pesquisadores a desenvolver metodologias para examinar seu impacto. Venkatasubramanian aponta para um modelo de investigação triangular: enquadramento, ferramentas e medição.

Enquanto grande parte da comunidade científica se concentra na construção de ferramentas técnicas, ele enfatiza que políticos e pesquisadores também devem atentar para como os problemas são enquadrados, pois os efeitos da IA se estendem muito além das implicações diretas de seus algoritmos.

“Se não estivermos cientes dos diferentes enquadramentos que estão em jogo ao falar sobre tecnologia e governança tecnológica, estaremos presos em um enquadramento que alguém mais deseja, em vez de um que escolhemos”, disse Venkatasubramanian.

Abordagens Práticas para Governança da IA

Venkatasubramanian argumentou que o progresso significativo na governança da IA não virá de estruturas top-down granulares, mas sim de abordagens práticas bottom-up que abordem questões e comunidades específicas.

“Tenho interesse em construir aqueles que realmente funcionam, se isso significa que não escalam”, respondeu ele a perguntas sobre a capacidade de escalabilidade de tal abordagem.

Ele também alertou contra a tendência de sempre valorizar a escalabilidade, afirmando: “Na ciência da computação, como um evangelho, escalar é o que queremos fazer. Precisamos entender que, às vezes, a escalabilidade nos impede de fazer o que realmente desejamos.”

Foco em Alvos de Política

Em relação à regulamentação da IA, Venkatasubramanian instou os formuladores de políticas a se concentrarem em alvos de política e a ver as especificações técnicas como último recurso, pois podem rapidamente se tornar obsoletas, dada a velocidade do desenvolvimento da IA atualmente.

“O que você deve fazer é identificar alvos com base em aplicação e consequências para se proteger de alguns dos problemas com IA generativa que não mudaram rapidamente”, disse ele. “A tecnologia muda rapidamente, então não é um bom alvo para regulação, porque é muito difícil definir o que é e o que faz.”

Momento Crítico para a Governança da IA

Agora é um momento crítico para estabelecer as bases da governança da IA. “Não temos o luxo de passar três anos descobrindo os melhores veículos”, disse Venkatasubramanian. “Precisamos trabalhar nisso agora, porque, se não, algo será definido e será muito difícil de mudar.”

Para ele, a solução mais prática para enfrentar esse problema urgente é focar em soluções que abordem questões específicas, em vez de buscar uma teoria universal. Ele deixou uma mensagem para os estudantes interessados na área: “Nenhum de nós precisa mudar o mundo sozinho. Será um esforço coletivo… apenas cuide de uma pequena parte dele.”

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...