Aplicação da Lei de IA: Desafios e Estruturas de Supervisão

Enforcement of the AI Act na União Europeia

A União Europeia promulgou a Lei de Inteligência Artificial (AI Act), que entrou em vigor em 1º de agosto de 2024. Esta legislação estabelece uma abordagem baseada em riscos para a inteligência artificial, proibindo práticas consideradas inaceitáveis, como a pontuação social e a manipulação do comportamento humano. Além disso, impõe requisitos específicos para sistemas de IA de alto risco, utilizados em setores como saúde, emprego e aplicação da lei.

Um dos principais desafios que se apresenta é a implementação prática da lei. O AI Act estabelece uma estrutura tanto centralizada quanto descentralizada para a aplicação de suas disposições, envolvendo autoridades nacionais de vigilância de mercado e a Comissão Europeia, atuando através do Escritório de IA.

1. Autoridades de Vigilância de Mercado

Os Estados-Membros desempenham um papel essencial na aplicação da AI Act. Cada Estado-Membro designará pelo menos uma autoridade notificadora e uma autoridade de vigilância de mercado, formando assim as autoridades competentes nacionais:

  • Autoridades Notificadoras: Responsáveis por intervir na fase de pré-implementação dos sistemas de IA, estabelecendo o quadro para os corpos de avaliação de conformidade.
  • Autoridades de Vigilância de Mercado: Supervisionam os sistemas de IA após sua implementação, tendo o poder de impor sanções por não conformidade.

As autoridades de vigilância de mercado possuem poderes investigativos e corretivos, podendo impor multas administrativas que podem chegar a 35 milhões de euros para práticas de IA proibidas.

2. Comissão Europeia e Escritório de IA

A Comissão Europeia possui poderes exclusivos para supervisionar e fazer cumprir as obrigações relacionadas a modelos de IA de uso geral. Para isso, o Escritório de IA foi designado para executar essas tarefas. A Comissão pode agir por iniciativa própria ou após receber uma reclamação.

As multas impostas pela Comissão para a não conformidade podem chegar a 15 milhões de euros ou 3% do faturamento total anual mundial, o que for maior. Essa capacidade de sanção é crucial, visto que a Comissão geralmente não possui poderes de aplicação direta, exceto em áreas como a legislação de concorrência.

3. Supervisor Europeu de Proteção de Dados (EDPS)

O AI Act designa o Supervisor Europeu de Proteção de Dados (EDPS) como a autoridade competente de vigilância de mercado para instituições e agências da União Europeia. O EDPS possui poderes similares às autoridades nacionais, incluindo a imposição de multas que podem chegar a 1,5 milhão de euros por não conformidade.

4. Cooperação e Coordenação

O AI Act inclui mecanismos para garantir a cooperação e a coordenação entre as autoridades competentes nacionais e a Comissão. As autoridades de vigilância de mercado devem informar a Comissão quando a não conformidade se estender além de seu território nacional, compartilhando resultados de avaliações e ações requeridas.

5. Desafios na Implementação

A estrutura de aplicação da AI Act apresenta desafios significativos:

  • Falta de um mecanismo único: Operadores devem lidar com múltiplas autoridades em diferentes Estados-Membros, o que pode aumentar a carga administrativa.
  • Falta de harmonização: O AI Act não especifica prazos aplicáveis para que as autoridades atuem, o que pode resultar em fragmentação.
  • Papel duplo do Escritório de IA: A supervisão e a imposição de sanções podem comprometer a imparcialidade do Escritório.
  • Variação na expertise: A experiência das autoridades de vigilância de mercado pode variar, resultando em interpretações e ações de aplicação inconsistentes.

À medida que a AI Act avança, a eficácia de sua aplicação será um ponto crucial a ser observado, especialmente em um campo tão dinâmico e em rápida evolução como a inteligência artificial.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...