O Plano de Ação de IA da UE Enfrenta Lacunas em Regras de Privacidade e Conformidade
Em 9 de abril de 2025, a Comissão Europeia divulgou o seu Plano de Ação do Continente de IA, que delineia uma estratégia industrial para impulsionar as capacidades de IA em toda a UE. O foco está na construção de infraestrutura de computação, na acessibilidade de dados de alta qualidade, no apoio à adoção em diversos setores e no desenvolvimento de talentos em IA.
Embora as visões pública e privada pareçam alinhadas, ao serem comparadas com os quadros legais da UE, especialmente a Lei de IA e o Regulamento Geral sobre a Proteção de Dados (GDPR), algumas lacunas sérias nas políticas se destacam.
Infraestrutura em Foco, mas a Execução ainda é Vaga
A Comissão deseja aumentar a capacidade de computação da Europa através de Fábricas de IA e Gigafábricas maiores, cada uma projetada para abrigar 100.000 chips de IA de alto desempenho. Essas instalações visam apoiar startups de IA e comunidades de pesquisa em toda a União. A iniciativa InvestAI de €20 bilhões financiará esse esforço.
A OpenAI também propõe um aumento significativo na capacidade de computação, visando um aumento de 300% até 2030, ligando isso explicitamente à energia limpa e à sustentabilidade. No entanto, o Plano de Ação ainda não fornece detalhes sobre como essas Gigafábricas, que demandam muitos dados, gerenciarão seu uso de energia ou um cronograma para a implementação.
Para comparação, a Índia começou a desenvolver infraestrutura pública de IA sob a missão IndiaAI, mas não delineou um roteiro nacional de computação ou algo na escala das Gigafábricas. Esse tipo de planejamento de capacidade em grande escala ainda está ausente.
Conflitos nos Objetivos de Acesso a Dados com as Regras de Privacidade Existentes
Tanto o Plano de Ação quanto a OpenAI concordam que o acesso a dados utilizáveis e de alta qualidade é crítico. A Comissão deseja construir Laboratórios de Dados e lançar uma Estratégia de União de Dados para reunir conjuntos de dados de diversos setores. A OpenAI propõe Espaços de Dados de IA que equilibram utilidade com privacidade e clareza legal.
Entretanto, o problema reside no fato de que o GDPR atualizado ainda impõe restrições rigorosas sobre como os dados, especialmente os dados pessoais, podem ser reutilizados. Mesmo os dados anonimados apresentam incerteza legal, dependendo de como são tratados. O Plano de Ação não explica como essas novas iniciativas de dados permanecerão em conformidade com as regras de privacidade existentes, e não há uma ponte legal à vista.
No caso da Índia, embora a Lei de Proteção de Dados Pessoais Digitais tenha menos barreiras para a reutilização de dados anonimados, ainda não existe um verdadeiro quadro para o acesso estruturado a dados de IA de fontes públicas ou setoriais.
Falta de um Caminho Claro Entre a Lei de IA e o GDPR
Atualmente, a Lei de IA e o GDPR operam de forma paralela, mas não se conectam efetivamente. A Lei de IA foca na regulamentação de sistemas de IA de alto risco, enquanto o GDPR trata do uso de dados pessoais, incluindo a profilagem baseada em IA e decisões automatizadas. Para os desenvolvedores que criam sistemas que se enquadram em ambas as legislações, não há uma orientação clara sobre como atender a ambos os conjuntos de regras.
Essa falta de coordenação torna a conformidade mais difícil e adiciona incerteza para quem tenta trabalhar em toda a UE.
Startups São Mencionadas, Mas o Apoio Ainda é Limitado
Tanto o Plano de Ação quanto as reformas do GDPR falam sobre a redução do ônus para pequenas empresas. Há promessas de “conformidade simplificada” e redução de burocracia para PME. No entanto, na prática, esses apoios se manifestam principalmente na forma de documentação e help desks, e não em financiamento ou assistência legal.
A OpenAI aponta que, para startups, especialmente aquelas que constroem modelos de alto risco ou modelos fundamentais, esse tipo de suporte consultivo raramente é suficiente. Ela propõe apoio legal dedicado e acesso facilitado a financiamento público para viabilizar a operação de pequenos players em ambientes regulamentados.
Modelos Fundamentais Não se Encaixam no Modelo Legal Atual
A Lei de IA classifica os sistemas de IA por nível de risco no momento da criação. Isso não funciona bem para modelos fundamentais, que são de uso geral e evoluem com base em como as pessoas os ajustam ou os implementam. Esses modelos podem se tornar de alto risco após a implementação, mas a lei não considera essa possibilidade.
A OpenAI pede uma regulamentação adaptativa e ambientes de testes que permitam que os formuladores de políticas monitorem esses modelos à medida que são utilizados. O Plano de Ação e a revisão do GDPR não abordam essa questão de forma alguma.
Por Que Isso Importa
A Comissão Europeia e a OpenAI têm uma visão clara sobre como o desenvolvimento de IA deve ocorrer na Europa. Elas concordam sobre a infraestrutura, a necessidade de acesso a dados e o papel de uma regulamentação responsável. No entanto, esse alinhamento ainda não se traduziu no quadro legal.
Lacunas na aplicação, regras de privacidade que colidem com a inovação e a ausência de um caminho claro para regular modelos fundamentais dificultam a implementação dos planos de IA da UE. Para a Índia e outros países que ainda estão construindo políticas de IA, isso serve como um lembrete do que acontece quando a infraestrutura e a regulamentação são desenvolvidas de forma isolada.