A Europa Está Considerando Enfraquecer as Proteções de IA. Deveria Reforçá-las.
A União Europeia está reconsiderando a Lei de IA, apesar dos repetidos avisos da sociedade civil. Através da proposta de omnibus da Lei de IA, a Comissão Europeia sugeriu mudanças que, longe de serem técnicas, enfraqueceriam significativamente as salvaguardas contra sistemas de IA considerados mais perigosos para a saúde, segurança e direitos fundamentais.
A proposta, amplamente criticada, abriu a porta para mudanças mais abrangentes sugeridas por grupos no Parlamento Europeu. À medida que o debate continua e as evidências dos danos causados pela IA aumentam, nenhuma das propostas tomou medidas para fortalecer os caminhos para reparação sob a Lei de IA, apesar de ser uma fraqueza central da legislação.
Desafios na Lei de IA
Além do direito de obter uma explicação e da existência de um mecanismo de reclamação, a Lei de IA oferece pouco em termos de ferramentas para os indivíduos exercerem seus direitos em caso de violação ou dano. Embora esses processos sejam um primeiro passo significativo e necessário para garantir acesso à informação e responsabilidade, eles são insuficientes.
Os mecanismos de reclamação na Lei de IA, embora abertos a qualquer pessoa ou entidade, não oferecem garantias processuais para os reclamantes, não exigem resposta ou investigação, e não se beneficiam de supervisão judicial. Essas omissões são deliberadas, com a Lei explicitamente afirmando que a legislação da UE já fornece remédios eficazes para indivíduos afetados pelo uso de sistemas de IA.
A primeira lei a garantir transparência e responsabilidade para sistemas de IA foi o Regulamento Geral sobre a Proteção de Dados (GDPR), que agora também está sob a mira do esforço de desregulamentação da UE. Como uma lei baseada em direitos, o GDPR desempenhou um papel significativo em estabelecer limites e mecanismos acionáveis para indivíduos cujos dados pessoais são processados por sistemas de IA.
Desafios Práticos e Estruturais
Um desafio notável é que muitos responsáveis pelo desenvolvimento de IA obscurecem a cadeia de responsabilidade e responsabilidade. As taxonomias de IA conhecidas muitas vezes não se encaixam facilmente nas entidades responsáveis sob o GDPR, levando os reguladores de dados a fornecer orientações sobre essa questão.
As autoridades de proteção de dados têm um papel importante a desempenhar na Lei de IA. No entanto, suas forças processuais relativas se aplicam apenas em conexão com o GDPR e são amplamente inaplicáveis no contexto da Lei de IA devido à ausência de procedimentos e garantias amigáveis ao reclamante.
Além disso, a legislação de igualdade e não discriminação enfrenta desafios ao abordar a desigualdade estrutural e as dinâmicas de poder subjacentes, onerando os indivíduos com os custos e riscos da litígios. A opacidade dos algoritmos empurra a reversão do ônus da prova ao limite.
Redress Coletivo e a Lei de IA
A Lei de Defesa do Consumidor da UE, com um quadro explícito para reparação coletiva, possui o potencial de superar muitos dos problemas apresentados pela reparação individual. No entanto, a eficácia desse quadro continua sendo desafiada pela complexidade do ambiente digital.
A Lei de IA possui uma abordagem limitada em relação à reparação eficaz, justificada pela existência da proposta de Diretiva de Responsabilidade da IA, que foi retirada. A Diretiva Revisada de Responsabilidade do Produto oferece um caminho alternativo para buscar compensação por danos relacionados à IA, mas apresenta várias limitações.
Conclusão
Diante desses desafios, é necessário preencher as lacunas substanciais deixadas pela Lei de IA e atualizar a legislação existente para fortalecer os procedimentos de execução e reparação. É essencial reforçar os mecanismos de ação coletiva, adotar e implementar salvaguardas processuais, como a reversão do ônus da prova, e assegurar que as autoridades de execução estejam adequadamente equipadas e financiadas.
Os legisladores e representantes do governo devem concentrar-se em melhorar as fraquezas da Lei de IA, garantindo a aplicação rápida de salvaguardas para sistemas de IA de alto risco e fechando as lacunas que permitem que sistemas de IA perigosos permaneçam sem fiscalização.