Os Riscos do “Grande e Belo Projeto” de Trump para a IA nos EUA

Como o ‘Grande Projeto Bonito’ de Trump Pode Prejudicar o Desenvolvimento da IA nos EUA

Um novo projeto de lei nos EUA proposto pela administração atual visa proibir a regulação de IA em nível estadual por 10 anos, concedendo poder irrestrito às grandes empresas de tecnologia. Críticos alertam que isso prejudica a inovação, a transparência e a confiança pública, além de isolar os EUA das normas globais de IA e reforçar os monopólios na indústria.

Como muitas propostas da atual administração dos EUA, o projeto de lei assinado por Trump é rotulado como “grande” e “bonito”. Contudo, por trás do nome chamativo, encontra-se uma mistura de políticas fiscais, de imigração e de defesa, que inclui uma disposição sobre inteligência artificial que pode ter consequências catastróficas para o desenvolvimento global da IA.

O projeto de lei afirma: “Nenhum estado ou subdivisão política poderá impor qualquer lei ou regulamento que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados durante o período de 10 anos a partir da data de promulgação desta Lei.”

Como o Grande Projeto Bonito Impactará a IA?

  • O supervisionamento limitado resultará em responsabilidade reduzida.
  • As grandes empresas de tecnologia se tornarão mais consolidadas, excluindo pequenos concorrentes e startups.
  • A confiança pública na IA evaporará.
  • A posição dos EUA como líder global em IA será erodida.

Sem Supervisão, Sem Responsabilidade

Até agora, a regulação da IA nos EUA tem sido majoritariamente superficial. Todos os modelos implantados operam sem supervisão, e de certa forma, isso é uma maneira natural de lidar com as coisas. A tecnologia geralmente avança mais rápido do que as regulamentações. Os EUA também sentem a pressão da corrida global em IA, especialmente dos concorrentes chineses.

Priorizar a “segurança nacional” em detrimento da segurança e dos direitos dos cidadãos é perigoso. Mais de 140 organizações reconheceram isso em uma carta aberta, instando os legisladores a rejeitar a proposta. Qualquer tecnologia, especialmente uma tão poderosa quanto a IA, pode causar danos. A regulação em nível estadual poderia ser a primeira linha de defesa, pronta para mitigar e responder antes que os danos ocorram.

As Grandes Empresas de Tecnologia Ficarão Maiores

Ao bloquear a regulação em nível estadual, o projeto de lei assegura a continuação da consolidação das grandes empresas de tecnologia na indústria de IA. Empresas como OpenAI, Anthropic, Microsoft, Amazon e Google geraram mais de $1 bilhão em receita em 2024. Nenhuma outra empresa superou $100 milhões. Sem padrões justos ou ecossistemas abertos, pequenos concorrentes e startups ficam à mercê de um jogo manipulado.

É de se esperar que os líderes da Big Tech tenham se oposto a esforços para impor guardrails nos EUA. O senador Ted Cruz e outros à frente da desregulamentação insistem que a IA deve ser governada apenas por padrões federais. Na prática, isso significa nenhum padrão, pelo menos por enquanto. E sem eles, a inovação corre o risco de se tornar um domínio exclusivo dos poucos que já controlam a infraestrutura, os dados e a narrativa.

A Confiança Pública na IA Evaporará Ainda Mais

Se os danos da IA permanecerem sem resposta e opacos, a confiança em todo o sistema começa a se desintegrar. A transparência não é um luxo, mas uma pré-condição para legitimidade em um mundo já ansioso sobre a IA. Segundo o Pew Research Center, mais da metade dos adultos nos EUA está mais preocupada do que empolgada com os desenvolvimentos recentes, especialmente sobre o uso da IA em decisões de contratação e saúde.

O projeto de regulação da IA recebeu amplo apoio e passou pela legislatura da Califórnia, apenas para ser rejeitado pelo governador Gavin Newsom após intensa pressão de lobby.

O DOGE Foi um Sinal de Alerta

Já vimos esse roteiro antes. A iniciativa DOGE da era Trump desmantelou equipes que trabalhavam em políticas de IA e pesquisa. A supervisão externa foi deixada de lado, e agências federais foram aniquiladas. Isso terminou em falha previsível: violações de privacidade, saídas tendenciosas, um pool de expertise institucional esvaziado e Elon Musk retornando aos negócios.

Em vez de um erro, o DOGE foi um estudo de caso sobre o que acontece quando a transparência é trocada por controle e o devido processo é tratado como um incômodo. Repetir esse erro novamente, sob a bandeira do Grande Projeto Bonito, arriscaria danos ainda maiores com muito menos guardrails para detê-los.

É Hora de Desafiar a Liderança Global da IA dos EUA

Enquanto outras regiões, como a UE, estão avançando com estruturas de IA éticas e centradas no ser humano, os EUA estão se afastando em direção a um vácuo regulatório. Esse contraste arrisca mais do que apenas danos à reputação. Pode isolar os EUA na cooperação internacional em IA e convidar retaliações de aliados e potências emergentes em IA.

A falha em atender aos padrões internacionais sobre governança de dados, transparência algorítmica e padrões de segurança da IA pode levar à exclusão das empresas baseadas nos EUA de mercados e esforços de pesquisa conjunta.

Embora a Big Tech americana lidere a corrida da IA por enquanto, o mundo possui algumas alternativas emergentes trabalhando em modelos justos e éticos. Países na região MENA, como o Catar, também estão investindo cada vez mais em IA com um olhar voltado para a competitividade global, a responsabilidade e a liderança em IA descentralizada.

Conforme relatado pela 404 Media, o projeto de lei seria um presente para gigantes da tecnologia como a Meta, que pressionou a Casa Branca a se opor às regulamentações estaduais sob a alegação de que “poderiam impedir a inovação e o investimento”. Mas a desregulamentação não é uma visão. É uma retirada que deixa os EUA parecendo menos um líder e mais um fora da lei.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...