Propostas Opostas de Regulamentação de IA nos EUA

Introdução

Em 23 de setembro de 2025, dois legisladores de partidos opostos introduziram projetos de lei concorrentes sobre inteligência artificial (IA), destacando a divisão sobre como a IA deve ser regulamentada nos Estados Unidos.

Projetos de Lei Opostos

A representante Yvette Clarke, do Partido Democrata, e o representante Michael Baumgartner, do Partido Republicano, apresentaram propostas que abordam sistemas de IA, mas com abordagens opostas.

Projeto de Lei da Rep. Clarke: Lei de Responsabilidade Algorítmica

A proposta de Clarke, chamada de Lei de Responsabilidade Algorítmica de 2025, exigiria que a Comissão Federal de Comércio (FTC) obrigasse as empresas a realizar avaliações de impacto de sistemas de IA antes e depois de sua implantação.

As empresas teriam que consultar funcionários, equipes de ética, especialistas externos e advogados de grupos afetados ao avaliar o impacto de seus algoritmos.

Além disso, as empresas seriam obrigadas a enviar relatórios resumidos dessas avaliações à FTC antes de lançar um novo sistema e anualmente após isso.

A FTC teria dois anos após a aprovação da lei para elaborar regras detalhadas sobre como esses relatórios devem ser realizados. A FTC também deverá criar um banco de dados público onde os relatórios das empresas serão publicados, permitindo que consumidores e pesquisadores visualizem quais algoritmos estão em uso e quais riscos eles apresentam.

As empresas que não cumprirem poderão enfrentar penalidades sob regras de práticas injustas ou enganosas, com procuradores gerais estaduais autorizados a processar em nome dos residentes.

Clarke destacou que “os americanos têm as mesmas liberdades civis online como em qualquer outro lugar de suas vidas”. Ela alertou que, sem supervisão, os sistemas de IA podem amplificar as desigualdades existentes em áreas críticas como emprego, habitação, educação, saúde e crédito.

Projeto de Lei do Rep. Baumgartner: Estrutura Nacional e Preempção Estadual

Por outro lado, o projeto de Baumgartner, denominado Lei de Liderança e Uniformidade em Inteligência Artificial Americana, busca codificar a estratégia de IA do presidente Trump, criando uma estrutura nacional de IA e bloqueando os estados de promulgar suas próprias regulamentações de IA por cinco anos.

O projeto enfatiza que os Estados Unidos lideram o mundo em IA devido a um “ambiente de inovação, investimento e desenvolvimento próspero” e a uma estrutura regulatória flexível e específica do setor.

O projeto exigiria que o presidente apresentasse um plano de ação em IA dentro de 30 dias após a promulgação, além de atualizações anuais.

De acordo com Baumgartner, o plano removeria barreiras ao desenvolvimento de IA em todos os níveis de governo, estabeleceria metas para pesquisa federal, adoção e gerenciamento de riscos para garantir uma IA segura e confiável em missões federais, e fortaleceria cadeias de suprimento, segurança nacional e infraestrutura crítica.

O projeto também busca reduzir a carga de conformidade para pequenas empresas, enquanto expande o acesso a modelos fundamentais, recursos computacionais, conjuntos de dados e assistência técnica. Além disso, a proposta alinharia a gestão de riscos federais com as diretrizes de IA do Instituto Nacional de Padrões e Tecnologia.

Baumgartner argumentou que um “patchwork de regras estaduais divergentes sobre IA” desestimularia investimentos e criaria encargos de conformidade desnecessários, permitindo exceções para a aplicação da lei criminal e políticas de aquisição estatal.

Conclusão

Esses projetos de lei refletem a crescente preocupação e debate sobre a regulamentação da IA nos Estados Unidos, mostrando a necessidade de um equilíbrio entre inovação e proteção dos cidadãos.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...