A Retirada Regulatória da Europa sobre IA: Um Almoço Grátis para as Grandes Tecnologias?
O barulho em torno da “competitividade” em Bruxelas está atingindo um ponto crítico.
Uma recente vítima desse impulso por “simplificação” foi a Diretiva de Responsabilidade da IA (AILD) — uma proposta legislativa que introduziria regras claras sobre a responsabilidade quando sistemas de IA causam danos.
A sua ausência conspícua do programa de trabalho de 2025 da Comissão Europeia deixa uma lacuna preocupante na estrutura de IA da Europa.
No AI Action Summit no início deste ano, líderes da UE sinalizaram uma mudança de prioridades, afastando-se da segurança e em direção à “competitividade”.
A presidente da Comissão, Ursula von der Leyen, declarou que “temos que cortar a burocracia” para “facilitar” o crescimento da IA na Europa. Poucos dias depois, a comissão traduziu a retórica em ação e efetivamente retirou a AILD.
Diferentemente da Lei de IA, que foca em reduzir danos causados por sistemas de IA de alto risco, a AILD foi projetada para garantir responsabilidade quando o dano ocorre e fornecer um caminho claro para compensação aos afetados.
A decisão da comissão de abandonar o arquivo, apesar de sua importância óbvia para a proteção do consumidor, parece menos uma decisão técnica e mais uma concessão política.
A diretiva teria introduzido responsabilidades legais para grandes desenvolvedores de IA, uma perspectiva que as grandes tecnologias resistiram ferozmente. No final das contas, os gigantes da tecnologia não querem ser responsabilizados pelos produtos que desenvolvem, nem as empresas que os utilizam.
Mas alguém precisa ser responsabilizado quando as coisas dão errado.
Se um sistema de IA nega crédito, provoca uma crise de mercado ou tranca um consumidor vulnerável fora de serviços básicos, quem é o responsável?
Como um recente relatório da Finance Watch deixa claro, a regulação financeira é construída sobre os princípios de responsabilidade, obrigação e transparência.
Até recentemente, os supervisores podiam identificar a fonte de um erro de negociação ou uma negação injustificada de seguro. Mesmo as decisões mais complexas baseadas em software eram, em última análise, explicáveis.
Códigos defeituosos poderiam ser identificados e a responsabilidade atribuída. Essa cadeia de responsabilidade está embutida na regulação financeira, e as empresas são obrigadas a cumprir. Se falharem, enfrentam consequências.
Mas a IA quebra essa cadeia. Se um sistema de IA nega crédito, provoca uma crise de mercado ou tranca um consumidor vulnerável fora de serviços básicos, quem é o responsável?
Sistemas de aprendizado profundo de IA operam detectando correlações em vastos conjuntos de dados, não através de uma lógica transparente de causa e efeito.
Esses modelos funcionam de maneira “aceite ou deixe”, onde até mesmo seus próprios desenvolvedores lutam para explicar as saídas.
Essa lógica de “caixa-preta” torna a supervisão efetiva impraticável, senão impossível. Avaliações de crédito, precificação de seguros ou decisões de investimento feitas por IA resistem à explicação, e os reguladores podem ter dificuldade em detectar erros, preconceitos ou até mesmo riscos sistêmicos.
A IA não é um negócio como de costume. Ela desafia a aplicação dos princípios fundamentais da regulação financeira. E quando a comissão se afasta da responsabilidade, uma lacuna preocupante se abre na estrutura regulatória.
Um mercado livre sem responsabilidade é simplesmente uma licença para explorar.
A IA já é um oligopólio dominado por um punhado de empresas dos EUA, e a retirada da UE dá a elas ainda mais poder. Ao abandonar o regime de responsabilidade da IA, a comissão está efetivamente dizendo a essas empresas que podem se beneficiar do mercado único sem arcar com qualquer responsabilidade pelos danos que seus sistemas possam causar.
Os formuladores de políticas da UE não devem se deixar levar por uma frenesi de competitividade que confunde regulação sólida com burocracia. Eles devem dar um passo para trás e avaliar a situação.
O que é necessário agora não é a desregulação, mas uma reavaliação do regulamento de IA. Passos pragmáticos podem ser tomados para garantir que, à medida que os casos de uso de IA em finanças proliferem, os cidadãos sejam protegidos de práticas nocivas.