Implementação e Desafios da Lei de Inteligência Artificial na UE

Enforcement of the AI Act na União Europeia

A Lei de Inteligência Artificial da União Europeia (AI Act) entrou em vigor em 1º de agosto de 2024. Essa legislação estabelece uma abordagem baseada em riscos para a regulamentação da IA, proibindo práticas consideradas inaceitáveis, como pontuação social ou manipulação do comportamento humano, e impondo requisitos específicos para sistemas de IA de alto risco, como aqueles utilizados em saúde, emprego ou aplicação da lei. No entanto, um dos principais desafios é: como essa lei será aplicada na prática?

Resumo

– A AI Act introduz uma estrutura regulatória baseada em riscos, proibindo certas práticas e impondo requisitos a sistemas de IA de alto risco.

– A aplicação da AI Act envolve uma combinação de estruturas centralizadas e descentralizadas, com papéis-chave desempenhados por autoridades nacionais de vigilância do mercado, a Comissão Europeia (por meio do AI Office) e o Supervisor Europeu de Proteção de Dados (EDPS).

– Os operadores enfrentarão encargos administrativos ao lidar com múltiplas autoridades, e as diferenças na expertise nacional podem causar inconsistências na aplicação da lei.

Estruturas de Aplicação da AI Act

A AI Act estabelece tanto uma estrutura centralizada quanto descentralizada para a aplicação de suas disposições. Os principais atores incluem:

1. Autoridades de Vigilância do Mercado

Os Estados-Membros desempenharão um papel crucial na aplicação da AI Act. Cada Estado-Membro designará pelo menos uma autoridade notificadora e uma autoridade de vigilância do mercado, que constituirão as autoridades competentes nacionais:

  • Autoridades Notificadoras: Intervirão na fase de pré-implementação de sistemas de IA, estabelecendo e aplicando o quadro para corpos de avaliação de conformidade.
  • Autoridades de Vigilância do Mercado: Supervisionarão os sistemas de IA após a implementação, tendo a capacidade de impor sanções por não conformidade.

As autoridades de vigilância do mercado têm o poder de impor sanções por não conformidade, incluindo multas administrativas de até EUR 35 milhões ou, se o infrator for uma empresa, até 7% do seu faturamento anual total mundial do exercício anterior, o que for maior.

2. Comissão Europeia e AI Office

A Comissão Europeia possui poderes exclusivos para supervisionar e aplicar obrigações para modelos de IA de uso geral. Essas tarefas serão delegadas ao AI Office, uma função dedicada dentro da Comissão.

A Comissão, através do AI Office, pode agir por iniciativa própria, mediante reclamações ou alertas qualificados de um painel científico. Este painel, composto por especialistas independentes, é estabelecido para apoiar a aplicação da AI Act.

O AI Office possui poderes investigativos e corretivos, incluindo a autoridade para solicitar documentação e informações de provedores de modelos de IA de uso geral.

3. Supervisor Europeu de Proteção de Dados

A AI Act designa o EDPS como a autoridade competente de vigilância do mercado para instituições, agências e órgãos da União, exceto em relação ao Tribunal de Justiça da União Europeia (CJEU). O EDPS possui os mesmos poderes investigativos e corretivos que as autoridades nacionais de vigilância do mercado.

Desafios na Aplicação da AI Act

A estrutura de aplicação da AI Act é complexa e levanta questões sobre sua implementação prática. Alguns dos principais desafios incluem:

  • Falta de um mecanismo único: Os operadores terão que lidar com múltiplas autoridades em diferentes Estados-Membros, aumentando a carga administrativa.
  • Falta de harmonização: A AI Act não especifica prazos aplicáveis para as autoridades agirem, o que pode levar a fragmentações.
  • Papel duplo do AI Office: O AI Office supervisiona e aplica obrigações, o que pode afetar sua imparcialidade.
  • Variação de expertise: A expertise das autoridades de vigilância do mercado varia entre os Estados-Membros, resultando em interpretações e ações de aplicação inconsistentes.

A AI Act representa um passo significativo na regulamentação da IA na Europa, mas sua implementação exigirá uma coordenação eficaz e uma cooperação entre as diversas autoridades competentes.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...