Deregulamentação da Inteligência Artificial: Riscos e Realidades para o Mercado Europeu

Deregulamentação da inteligência artificial não impulsionará os mercados tecnológicos da UE

A União Europeia está prestes a adotar uma postura mais flexível em relação à regulamentação da inteligência artificial, alinhando-se a uma proposta de desregulamentação emitida pela Comissão Europeia em novembro de 2025. O plano, já amplamente aprovado pelos países da UE, mas aguardando finalização, aproximaria a UE da abordagem geralmente favorecida pelos Estados Unidos. Não surpreendentemente, as grandes empresas de tecnologia apoiam essa medida. Os formuladores de políticas da UE esperam que o plano ajude a fechar a lacuna de desempenho entre os mercados tecnológicos da UE e dos EUA.

Implicações da desregulamentação

O plano implica uma diminuição dos direitos dos usuários de tecnologia. Facilita o uso de dados sensíveis por empresas de IA para treinar seus algoritmos, o que pode expor os europeus a discriminação, por exemplo, ao usar informações sobre orientação sexual ou crenças religiosas contra seus interesses. Além disso, remove algumas exigências de transparência: se um desenvolvedor autoavaliar que um sistema de IA não é de alto risco, ele não será mais obrigado a registrar sua aplicação em um banco de dados público da UE. Também amplia as circunstâncias em que decisões totalmente automatizadas são legais, mesmo que resultem na demissão de trabalhadores por máquinas em vez de humanos.

A relação entre regulamentação e desempenho tecnológico

No entanto, não há evidências convincentes de que a proteção dos direitos fundamentais na UE seja a causa do desempenho morno dos mercados de IA europeus. O atual estado da tecnologia na UE reflete escolhas industriais passadas mais do que os impactos das regulamentações digitais. Por exemplo, em 2003, a participação da Europa na despesa global em P&D de alta tecnologia era de 22%, comparada a 55% nos EUA. Dez anos depois, caiu para 18% na UE e 53% nos EUA. A Europa focou mais em setores de média tecnologia, como a fabricação de automóveis, que nada tem a ver com as leis de privacidade de dados da UE, em vigor desde 2018, ou com a Lei de IA, que visa abordar os riscos da IA e que ainda não entrou totalmente em vigor.

Outro sinal de que a regulamentação não é tão crucial para determinar o desempenho tecnológico vem da China, frequentemente vista como o único rival credível dos EUA em IA. Estima-se que os principais modelos de IA da China estejam apenas dois meses atrás dos EUA, apesar de que a regulamentação tecnológica na China é bastante rigorosa. As empresas chinesas devem seguir um conjunto crescente de regras complexas, que incluem treinar chatbots exclusivamente com informações aprovadas pelo governo e cumprir leis de moderação de conteúdo muito rigorosas.

Considerações finais

Portanto, a redução da proteção regulatória na UE vale o preço a ser pago? Dada a função marginal da regulamentação na explicação do desempenho tecnológico, não está claro o que a economia europeia ganharia em troca. A proteção da privacidade, por exemplo, pode direcionar as empresas a mudarem o foco de seus esforços de inovação, mas é improvável que tenha efeitos produtivos agregados fortes em comparação com o acesso a recursos essenciais, infraestrutura e financiamento.

Se algo, a redução das proteções pode minar a confiança na economia digital europeia e diminuir a demanda por serviços tecnológicos, embora a demanda por IA provavelmente cresça independentemente da ação regulatória. Os formuladores de políticas da UE devem, portanto, garantir que as regulamentações protejam os usuários de danos, em vez de se concentrar excessivamente nas relações relativamente fracas entre regulamentação e inovação.

É claro que a estrutura regulatória da UE tem espaço para melhorias. A regulamentação pode distorcer a concorrência e favorecer a concentração de mercado, por exemplo, impondo encargos desproporcionais às pequenas empresas. A maioria dos requisitos da Lei de IA é determinada pelo risco que uma aplicação deve representar, dado seu propósito pretendido, deixando uma lacuna para usos inesperados que se provem prejudiciais na prática. As autoridades públicas também podem ter dificuldades em fazer cumprir a lei e podem exigir novas ferramentas de monitoramento de IA mais eficazes. Contudo, embora a estrutura de regulamentação da IA da UE precise de refinamento, não deve ser enfraquecida pela crença equivocada de que uma regulamentação mais frouxa beneficiaria a economia europeia.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...