Repúdio das Organizações contra a Regulação da IA pelos Republicanos da Câmara

Os Republicanos da Casa querem impedir os estados de regular a IA

Mais de 100 organizações estão levantando preocupações sobre uma provisão no amplo pacote de cortes fiscais e de gastos da Casa que poderia comprometer a regulação de sistemas de inteligência artificial (IA). Esta cláusula, que está inserida na agenda do presidente, se aprovada, impediria os estados de impor “qualquer lei ou regulação que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados” por 10 anos.

Com a IA avançando rapidamente e se estendendo para mais áreas da vida — como comunicações pessoais, saúde, contratações e policiamento — bloquear os estados de aplicar suas próprias leis relacionadas à tecnologia poderia prejudicar usuários e a sociedade. As organizações expressaram suas preocupações em uma carta enviada aos membros do Congresso, incluindo o presidente da Casa e o líder da minoria da Casa.

Consequências da Provisão

A carta destaca que “esta moratória significaria que mesmo que uma empresa projete deliberadamente um algoritmo que cause prejuízo previsível — independentemente de quão intencional ou grave seja a má conduta ou quão devastadoras sejam as consequências — a empresa que fabrica ou utiliza essa tecnologia prejudicial não seria responsabilizada perante os legisladores e o público”.

O projeto de lei já superou um obstáculo importante quando o Comitê de Orçamento da Casa votou a favor dele, mas ainda precisa passar por uma série de votações na Casa antes de ser encaminhado ao Senado para consideração.

Organizações Signatárias

Os 141 signatários da carta incluem instituições acadêmicas como a Universidade de Essex e o Centro de Privacidade e Tecnologia da Georgetown Law, além de grupos de defesa como o Southern Poverty Law Center e o Economic Policy Institute. Coalizões de funcionários, como os Funcionários da Amazon pela Justiça Climática e o Sindicato dos Trabalhadores do Alphabet, também assinaram a carta, sublinhando a ampla preocupação sobre o futuro do desenvolvimento da IA.

Reação da Indústria

A provisão de pré-empcão de IA é vista como uma concessão perigosa aos CEOs da Big Tech, que apostaram tudo em uma sociedade onde a IA não finalizada e sem responsabilidade é forçada prematuramente em todos os aspectos de nossas vidas. A diretora de poder corporativo da Demand Progress, organização não governamental que redigiu a carta, afirmou que “o presidente da Casa e o líder da minoria devem ouvir o povo americano e não apenas as doações de campanha da Big Tech”.

Movimentos Estaduais em Regulação

Os estados dos EUA têm se movido cada vez mais para regular algumas das aplicações de IA de maior risco na ausência de diretrizes federais significativas. Por exemplo, o Colorado aprovou uma lei abrangente sobre IA no ano passado que exige que empresas de tecnologia protejam os consumidores do risco de discriminação algorítmica em empregos e outras decisões cruciais, além de informar os usuários quando estão interagindo com um sistema de IA.

Além disso, o governador de Nova Jersey, Phil Murphy, sancionou uma lei que cria penalidades civis e criminais para pessoas que distribuem conteúdo deepfake gerado por IA de forma enganosa. Já os legisladores de Ohio estão considerando um projeto de lei que exigiria marcas d’água em conteúdos gerados por IA e proíbe fraudes de identidade usando deepfakes.

A Importância da Regulação

A regulação de algumas aplicações de IA tem sido um ponto raro de acordo bipartidário em Capitol Hill. Recentemente, o presidente sancionou a Lei Take It Down, que tornará ilegal compartilhar imagens explícitas geradas por IA sem consentimento, a qual passou tanto na Casa quanto no Senado com apoio de ambos os lados.

A provisão do projeto de lei orçamentário contraria os apelos de alguns líderes de tecnologia por mais regulamentação da IA. O CEO da OpenAI, Sam Altman, testemunhou a um subcomitê do Senado em 2023 que “a intervenção regulatória dos governos será crítica para mitigar os riscos de modelos cada vez mais poderosos”.

Altman também expressou a necessidade de diretrizes claras para ajudar as empresas de tecnologia a navegar em um emaranhado de regulamentações estaduais, afirmando que “precisamos garantir que empresas como a OpenAI e outras tenham clareza legal sobre como vamos operar”.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...