Uma espada de dois gumes: a Lei de IA da UE vai sufocar ou incentivar a inovação tecnológica?
A recente cúpula de Paris com líderes globais para discutir a inteligência artificial (IA) trouxe novamente a IA para o centro das atenções. A Cúpula de Ação sobre Inteligência Artificial de Paris, realizada em fevereiro de 2025, representou uma tentativa de fortalecer a ação internacional a favor de uma IA mais sustentável, que sirva ao progresso coletivo e ao interesse geral.
No dia 2 de fevereiro de 2025, a abordagem cautelosa de regulamentação da UE foi demonstrada com a entrada em vigor dos primeiros aspectos da Lei de IA da UE. Isso equivale a uma proibição total de IA que apresenta um ‘risco inaceitável’, independentemente de esses sistemas terem sido colocados no mercado antes ou depois dessa data.
Objetivo da Lei de IA da UE
O objetivo da Lei de IA da UE é estabelecer um quadro jurídico uniforme para o desenvolvimento e uso de sistemas de IA, garantindo um alto nível de proteção dos interesses públicos, incluindo saúde, segurança e direitos fundamentais.
Contrastes entre a UE e os EUA
O contraste entre a abordagem da UE e a dos EUA em relação à IA é nítido. Durante a cúpula em Paris, o vice-presidente dos EUA, JD Vance, afirmou: “Acreditamos que a regulamentação excessiva do setor de IA pode matar uma indústria transformadora, exatamente quando está decolando.”
Com os EUA liderando a revolução da IA, tal posição pode ter repercussões a longo prazo.
Impacto e abrangência da Lei de IA da UE
A Lei de IA da UE entrou em vigor em 1º de agosto de 2024, mas diferentes disposições estão programadas para entrar em vigor posteriormente. A maioria das disposições entrará em vigor em 2 de agosto de 2026.
A entrada em vigor das primeiras etapas da Lei de IA da UE não afetará apenas as empresas baseadas na UE, mas também negócios estrangeiros. Isso porque o Artigo 2 da Lei estabelece seu efeito extraterritorial, onde a saída de um sistema de IA é utilizada dentro da UE.
Além disso, espera-se que a Lei de IA da UE se torne um marco regulatório global, semelhante ao GDPR. Alguns podem, portanto, buscar harmonizar-se com a Lei de IA da UE como uma questão de melhores práticas e gestão de riscos.
Abordagem baseada em riscos
A Lei de IA da UE adota uma abordagem baseada em riscos, adaptada ao nível de risco do sistema:
- Sistemas de IA de risco inaceitável, que implantam práticas manipulativas, exploratórias, de controle social ou de vigilância, agora estão banidos.
- Sistemas de IA de alto risco, que criam um risco significativo de dano à saúde, segurança ou direitos fundamentais das pessoas, são regulamentados.
- Sistemas de IA de risco limitado, como chatbots ou deepfakes, estão sujeitos a obrigações de transparência.
- Sistemas de IA de risco mínimo, como filtros de spam, não são regulamentados pela Lei de IA da UE, mas ainda estão sujeitos a regulamentos aplicáveis, como o GDPR.
Orientações e penalidades
A Comissão Europeia publicou dois conjuntos de diretrizes sobre definição de sistemas de IA e sobre práticas de IA proibidas para aumentar a clareza jurídica e garantir a aplicação uniforme da Lei de IA da UE.
No entanto, essas diretrizes amplas são “não vinculativas” e a interpretação da Lei de IA da UE é uma questão para o Tribunal de Justiça da União Europeia. Como a Lei de IA da UE será interpretada permanece a ser visto.
Na prática, empresas do Reino Unido que comercializam para a UE, sejam fornecedoras, implantadoras, importadoras, distribuidoras ou representantes de sistemas de IA, devem garantir que não estão utilizando sistemas de IA que realizam a classificação social de pessoas naturais ou fazem raspagem não direcionada de imagens faciais para preencher bancos de dados de reconhecimento facial. Esses sistemas estão agora proibidos na UE.
As penalidades por não conformidade são substanciais, com infrações relacionadas à IA proibida podendo atrair 7% do faturamento anual global do infrator ou €35 milhões – o que for maior.
Exceções e incentivos à inovação
Existem exceções à Lei de IA, notadamente em relação a sistemas de IA desenvolvidos para uso privado, pesquisa científica e desenvolvimento, ou se forem lançados sob licenças livres e de código aberto (exceto quando qualificam como de alto risco). Além disso, a Lei de IA apoia a inovação ao permitir a criação de caixas de areia regulatórias de IA (proporcionando um ambiente controlado que fomenta a inovação ao facilitar o desenvolvimento, treinamento e teste de sistemas de IA inovadores) e ao fornecer um quadro para testes de sistemas de IA de alto risco em condições do mundo real. Medidas específicas para pequenas e médias empresas e startups também foram aprovadas para ajudar na entrada delas no mercado de IA e torná-las concorrentes de empresas já estabelecidas.
Reflexões finais
Será que isso será suficiente para tornar a UE um destino atraente para pesquisa em IA e startups, ou essas várias disposições irão sufocar a inovação? Pode-se argumentar que tal quadro jurídico para o desenvolvimento e uso de sistemas de IA de acordo com os valores da UE e direitos fundamentais pode ajudar a aumentar a confiança dos usuários na IA, o que impulsionará a demanda nesse campo. Para promover a inovação, o presidente francês Emmanuel Macron anunciou cerca de €100 bilhões em investimentos relacionados à IA na recente cúpula em Paris.
No entanto, qualquer tipo de incentivo não isentará as empresas do ônus de cumprir não apenas a Lei de IA da UE, mas também outras regulamentações europeias aplicáveis. Por exemplo, qualquer sistema de IA que processe dados pessoais terá que cumprir o GDPR. Nesse aspecto, a Autoridade Francesa de Proteção de Dados (CNIL) já publicou recomendações para garantir a conformidade com o GDPR.
Permanecem questões sobre se a UE surgirá como uma verdadeira inovadora em IA, mas a corrida para liderar a revolução da IA é amplamente considerada uma corrida a dois entre os EUA e a China.