Os Riscos do “Grande e Belo Projeto” de Trump para a IA nos EUA

Como o ‘Grande Projeto Bonito’ de Trump Pode Prejudicar o Desenvolvimento da IA nos EUA

Um novo projeto de lei nos EUA proposto pela administração atual visa proibir a regulação de IA em nível estadual por 10 anos, concedendo poder irrestrito às grandes empresas de tecnologia. Críticos alertam que isso prejudica a inovação, a transparência e a confiança pública, além de isolar os EUA das normas globais de IA e reforçar os monopólios na indústria.

Como muitas propostas da atual administração dos EUA, o projeto de lei assinado por Trump é rotulado como “grande” e “bonito”. Contudo, por trás do nome chamativo, encontra-se uma mistura de políticas fiscais, de imigração e de defesa, que inclui uma disposição sobre inteligência artificial que pode ter consequências catastróficas para o desenvolvimento global da IA.

O projeto de lei afirma: “Nenhum estado ou subdivisão política poderá impor qualquer lei ou regulamento que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados durante o período de 10 anos a partir da data de promulgação desta Lei.”

Como o Grande Projeto Bonito Impactará a IA?

  • O supervisionamento limitado resultará em responsabilidade reduzida.
  • As grandes empresas de tecnologia se tornarão mais consolidadas, excluindo pequenos concorrentes e startups.
  • A confiança pública na IA evaporará.
  • A posição dos EUA como líder global em IA será erodida.

Sem Supervisão, Sem Responsabilidade

Até agora, a regulação da IA nos EUA tem sido majoritariamente superficial. Todos os modelos implantados operam sem supervisão, e de certa forma, isso é uma maneira natural de lidar com as coisas. A tecnologia geralmente avança mais rápido do que as regulamentações. Os EUA também sentem a pressão da corrida global em IA, especialmente dos concorrentes chineses.

Priorizar a “segurança nacional” em detrimento da segurança e dos direitos dos cidadãos é perigoso. Mais de 140 organizações reconheceram isso em uma carta aberta, instando os legisladores a rejeitar a proposta. Qualquer tecnologia, especialmente uma tão poderosa quanto a IA, pode causar danos. A regulação em nível estadual poderia ser a primeira linha de defesa, pronta para mitigar e responder antes que os danos ocorram.

As Grandes Empresas de Tecnologia Ficarão Maiores

Ao bloquear a regulação em nível estadual, o projeto de lei assegura a continuação da consolidação das grandes empresas de tecnologia na indústria de IA. Empresas como OpenAI, Anthropic, Microsoft, Amazon e Google geraram mais de $1 bilhão em receita em 2024. Nenhuma outra empresa superou $100 milhões. Sem padrões justos ou ecossistemas abertos, pequenos concorrentes e startups ficam à mercê de um jogo manipulado.

É de se esperar que os líderes da Big Tech tenham se oposto a esforços para impor guardrails nos EUA. O senador Ted Cruz e outros à frente da desregulamentação insistem que a IA deve ser governada apenas por padrões federais. Na prática, isso significa nenhum padrão, pelo menos por enquanto. E sem eles, a inovação corre o risco de se tornar um domínio exclusivo dos poucos que já controlam a infraestrutura, os dados e a narrativa.

A Confiança Pública na IA Evaporará Ainda Mais

Se os danos da IA permanecerem sem resposta e opacos, a confiança em todo o sistema começa a se desintegrar. A transparência não é um luxo, mas uma pré-condição para legitimidade em um mundo já ansioso sobre a IA. Segundo o Pew Research Center, mais da metade dos adultos nos EUA está mais preocupada do que empolgada com os desenvolvimentos recentes, especialmente sobre o uso da IA em decisões de contratação e saúde.

O projeto de regulação da IA recebeu amplo apoio e passou pela legislatura da Califórnia, apenas para ser rejeitado pelo governador Gavin Newsom após intensa pressão de lobby.

O DOGE Foi um Sinal de Alerta

Já vimos esse roteiro antes. A iniciativa DOGE da era Trump desmantelou equipes que trabalhavam em políticas de IA e pesquisa. A supervisão externa foi deixada de lado, e agências federais foram aniquiladas. Isso terminou em falha previsível: violações de privacidade, saídas tendenciosas, um pool de expertise institucional esvaziado e Elon Musk retornando aos negócios.

Em vez de um erro, o DOGE foi um estudo de caso sobre o que acontece quando a transparência é trocada por controle e o devido processo é tratado como um incômodo. Repetir esse erro novamente, sob a bandeira do Grande Projeto Bonito, arriscaria danos ainda maiores com muito menos guardrails para detê-los.

É Hora de Desafiar a Liderança Global da IA dos EUA

Enquanto outras regiões, como a UE, estão avançando com estruturas de IA éticas e centradas no ser humano, os EUA estão se afastando em direção a um vácuo regulatório. Esse contraste arrisca mais do que apenas danos à reputação. Pode isolar os EUA na cooperação internacional em IA e convidar retaliações de aliados e potências emergentes em IA.

A falha em atender aos padrões internacionais sobre governança de dados, transparência algorítmica e padrões de segurança da IA pode levar à exclusão das empresas baseadas nos EUA de mercados e esforços de pesquisa conjunta.

Embora a Big Tech americana lidere a corrida da IA por enquanto, o mundo possui algumas alternativas emergentes trabalhando em modelos justos e éticos. Países na região MENA, como o Catar, também estão investindo cada vez mais em IA com um olhar voltado para a competitividade global, a responsabilidade e a liderança em IA descentralizada.

Conforme relatado pela 404 Media, o projeto de lei seria um presente para gigantes da tecnologia como a Meta, que pressionou a Casa Branca a se opor às regulamentações estaduais sob a alegação de que “poderiam impedir a inovação e o investimento”. Mas a desregulamentação não é uma visão. É uma retirada que deixa os EUA parecendo menos um líder e mais um fora da lei.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...