Mitigação dos Riscos Relacionados à IA: Abordagem Suave, Abordagem Rigorosa ou Algo Intermediário?
A crescente complexidade do desenvolvimento da inteligência artificial (IA) gera riscos significativos, especialmente no que diz respeito às fronteiras éticas diante de estruturas legais existentes que não foram concebidas para lidar com essas tecnologias. A forma como os reguladores abordam esses desafios varia consideravelmente entre diferentes países e regiões.
Como os Reguladores Diferentes Enfrentam os Riscos da IA
A regulamentação da IA varia amplamente, mas a maioria dos países se posiciona entre duas extremidades: os Estados Unidos, que adotam uma abordagem mais flexível, e a União Europeia, que aplica regras mais rigorosas.
A Abordagem dos EUA: Inovar Primeiro, Regular Depois
Os Estados Unidos não possuem uma legislação federal específica para regular a IA; em vez disso, confiam em diretrizes voluntárias e soluções baseadas no mercado. A National AI Initiative Act busca coordenar a pesquisa federal em IA, enquanto o Executive Order emitido pelo Presidente Biden em outubro de 2023 estabelece padrões para infraestrutura crítica e segurança cibernética em projetos de IA financiados pelo governo.
No entanto, a paisagem regulatória dos EUA é fluida e pode mudar com o tempo. Em janeiro de 2025, o Presidente Trump revogou a ordem executiva de Biden, sinalizando uma possível mudança em direção à promoção da inovação em detrimento da regulamentação.
Críticas à abordagem dos EUA incluem sua natureza fragmentada, que resulta em uma teia complexa de regras, além da falta de padrões aplicáveis e lacunas na proteção da privacidade. Contudo, em 2024, legisladores estaduais introduziram quase 700 propostas de legislação sobre IA, indicando que o governo dos EUA não hesita em regular, mas busca formas de implementar a regulamentação sem comprometer a inovação.
A Abordagem da UE: Prevenção de Danos
A União Europeia, por outro lado, adotou uma abordagem muito diferente. Em agosto de 2024, o Parlamento e o Conselho Europeus introduziram a Artificial Intelligence Act (Lei de Inteligência Artificial), amplamente considerada a legislação mais abrangente sobre IA até o momento. Esta lei impõe regras rigorosas para sistemas de IA de alta sensibilidade, como aqueles usados na saúde e na infraestrutura crítica, enquanto aplicações de baixo risco enfrentam apenas supervisão mínima.
Semelhante ao GDPR, a lei exige conformidade não apenas dentro das fronteiras da UE, mas também de qualquer fornecedor, distribuidor ou usuário de sistemas de IA que opere na UE. Isso pode representar desafios para provedores não pertencentes à UE que desejam integrar produtos ao mercado europeu.
As críticas à abordagem da UE incluem a alegação de que não estabelece um padrão de direitos humanos, além de ser excessivamente complexa e exigir requisitos técnicos rigorosos em um momento em que a UE busca aumentar sua competitividade.
O Caminho do Meio Regulatória
O Reino Unido adotou uma estrutura “leve” que se posiciona entre a abordagem da UE e a dos EUA. Essa estrutura é baseada em princípios como segurança, justiça e transparência. Em novembro de 2023, o Reino Unido fundou o AI Safety Institute (Instituto de Segurança da IA), encarregado de avaliar a segurança de modelos avançados de IA e promover padrões internacionais.
O governo britânico também publicou um AI Opportunities Action Plan, delineando medidas para investir em fundações de IA e fomentar sistemas de IA “nacionais”. No entanto, as críticas à abordagem do Reino Unido incluem capacidades de aplicação limitadas e falta de uma autoridade reguladora central.
Cooperação Internacional na Regulação da IA
À medida que a tecnologia de IA continua a evoluir, as diferenças entre as abordagens regulatórias se tornam mais evidentes. É necessário um consenso global sobre os principais riscos relacionados à IA. A cooperação internacional é crucial para estabelecer padrões mínimos que abordem os riscos e promovam a inovação.
Atualmente, organizações globais como a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e as Nações Unidas estão trabalhando para estabelecer normas internacionais e diretrizes éticas para a IA. O caminho a seguir exige que todos na indústria encontrem um terreno comum, especialmente considerando que a inovação avança em ritmo acelerado.