Repúdio das Organizações contra a Regulação da IA pelos Republicanos da Câmara

Os Republicanos da Casa querem impedir os estados de regular a IA

Mais de 100 organizações estão levantando preocupações sobre uma provisão no amplo pacote de cortes fiscais e de gastos da Casa que poderia comprometer a regulação de sistemas de inteligência artificial (IA). Esta cláusula, que está inserida na agenda do presidente, se aprovada, impediria os estados de impor “qualquer lei ou regulação que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados” por 10 anos.

Com a IA avançando rapidamente e se estendendo para mais áreas da vida — como comunicações pessoais, saúde, contratações e policiamento — bloquear os estados de aplicar suas próprias leis relacionadas à tecnologia poderia prejudicar usuários e a sociedade. As organizações expressaram suas preocupações em uma carta enviada aos membros do Congresso, incluindo o presidente da Casa e o líder da minoria da Casa.

Consequências da Provisão

A carta destaca que “esta moratória significaria que mesmo que uma empresa projete deliberadamente um algoritmo que cause prejuízo previsível — independentemente de quão intencional ou grave seja a má conduta ou quão devastadoras sejam as consequências — a empresa que fabrica ou utiliza essa tecnologia prejudicial não seria responsabilizada perante os legisladores e o público”.

O projeto de lei já superou um obstáculo importante quando o Comitê de Orçamento da Casa votou a favor dele, mas ainda precisa passar por uma série de votações na Casa antes de ser encaminhado ao Senado para consideração.

Organizações Signatárias

Os 141 signatários da carta incluem instituições acadêmicas como a Universidade de Essex e o Centro de Privacidade e Tecnologia da Georgetown Law, além de grupos de defesa como o Southern Poverty Law Center e o Economic Policy Institute. Coalizões de funcionários, como os Funcionários da Amazon pela Justiça Climática e o Sindicato dos Trabalhadores do Alphabet, também assinaram a carta, sublinhando a ampla preocupação sobre o futuro do desenvolvimento da IA.

Reação da Indústria

A provisão de pré-empcão de IA é vista como uma concessão perigosa aos CEOs da Big Tech, que apostaram tudo em uma sociedade onde a IA não finalizada e sem responsabilidade é forçada prematuramente em todos os aspectos de nossas vidas. A diretora de poder corporativo da Demand Progress, organização não governamental que redigiu a carta, afirmou que “o presidente da Casa e o líder da minoria devem ouvir o povo americano e não apenas as doações de campanha da Big Tech”.

Movimentos Estaduais em Regulação

Os estados dos EUA têm se movido cada vez mais para regular algumas das aplicações de IA de maior risco na ausência de diretrizes federais significativas. Por exemplo, o Colorado aprovou uma lei abrangente sobre IA no ano passado que exige que empresas de tecnologia protejam os consumidores do risco de discriminação algorítmica em empregos e outras decisões cruciais, além de informar os usuários quando estão interagindo com um sistema de IA.

Além disso, o governador de Nova Jersey, Phil Murphy, sancionou uma lei que cria penalidades civis e criminais para pessoas que distribuem conteúdo deepfake gerado por IA de forma enganosa. Já os legisladores de Ohio estão considerando um projeto de lei que exigiria marcas d’água em conteúdos gerados por IA e proíbe fraudes de identidade usando deepfakes.

A Importância da Regulação

A regulação de algumas aplicações de IA tem sido um ponto raro de acordo bipartidário em Capitol Hill. Recentemente, o presidente sancionou a Lei Take It Down, que tornará ilegal compartilhar imagens explícitas geradas por IA sem consentimento, a qual passou tanto na Casa quanto no Senado com apoio de ambos os lados.

A provisão do projeto de lei orçamentário contraria os apelos de alguns líderes de tecnologia por mais regulamentação da IA. O CEO da OpenAI, Sam Altman, testemunhou a um subcomitê do Senado em 2023 que “a intervenção regulatória dos governos será crítica para mitigar os riscos de modelos cada vez mais poderosos”.

Altman também expressou a necessidade de diretrizes claras para ajudar as empresas de tecnologia a navegar em um emaranhado de regulamentações estaduais, afirmando que “precisamos garantir que empresas como a OpenAI e outras tenham clareza legal sobre como vamos operar”.

More Insights

A Nova Era da Política Internacional de IA

Desde o início de 2025, a direção estratégica da política de inteligência artificial (IA) mudou drasticamente para se concentrar na capacidade dos estados-nação de "vencer a corrida global da IA". À...

Governança de IA: O Descompasso entre Adoção e Estrutura

Um novo estudo revela que 93% das empresas no Reino Unido usam inteligência artificial de alguma forma, mas a maioria não possui estruturas adequadas para gerenciar os riscos associados. Apenas 7% das...