Regulamentação da Inteligência Artificial: Impactos para Fornecedores Não Europeus

Regulamentação (UE) 2024/1689 sobre Inteligência Artificial (AI Act)

A Regulamentação (UE) 2024/1689, também conhecida como AI Act, estabelece regras harmonizadas para a colocação no mercado, a operação e o uso de sistemas de Inteligência Artificial (IA) na União Europeia (UE). Essa regulamentação foi adotada pelo Conselho em 21 de maio de 2024 e publicada no Jornal Oficial da União Europeia em 12 de julho de 2024.

Objetivo do AI Act

O objetivo do AI Act é promover a utilização de uma IA centrada no ser humano e confiável, melhorando o funcionamento do mercado interno, enquanto se assegura um alto nível de proteção à saúde, segurança e direitos fundamentais. Isso inclui a proteção contra os efeitos nocivos dos sistemas de IA na União e o suporte à inovação.

Escopo e Aplicabilidade

O AI Act não se limita às entidades da UE; ele possui um escopo extraterritorial, aplicando-se a provedores e usuários de sistemas de IA de países não pertencentes à UE. Isso significa que empresas fora da UE que desenvolvem ou utilizam IA em serviços disponíveis na UE também devem cumprir esta regulamentação.

Implementação

A implementação do AI Act será gradual. A partir de 2 de agosto de 2026, as regras começarão a vigorar, exceto algumas disposições que entrarão em vigor em datas anteriores, como:

  • 2 de fevereiro de 2025: disposições gerais e regras para sistemas de IA com risco inaceitável;
  • 2 de agosto de 2025: regras para modelos de IA de uso geral e disposições de governança;
  • 2 de agosto de 2027: regras para sistemas de IA de alto risco.

Abordagem Baseada em Risco

O AI Act adota uma abordagem baseada em risco, onde a gravidade das regras depende do nível de risco que um sistema de IA representa. Isso implica:

  • Proibição de práticas de IA inaceitáveis;
  • Requisitos para sistemas de IA de alto risco;
  • Obrigações de transparência para sistemas de IA de menor risco.

Práticas de IA Inaceitáveis

O AI Act proíbe práticas de IA que envolvem:

  • Técnicas subliminares que distorcem o comportamento de indivíduos;
  • Exploração de vulnerabilidades de grupos específicos;
  • Classificação social que leva a tratamento desfavorável.

Sistemas de IA de Alto Risco

Os sistemas de IA identificados como de alto risco incluem:

  • Identificação biométrica;
  • Infraestrutura crítica;
  • Educação e formação profissional;
  • Aplicações na justiça e processos democráticos.

Transparência e Governança

Os provedores de sistemas de IA devem seguir obrigações de transparência, assegurando que os usuários estejam informados sobre sua interação com sistemas de IA. A governança da IA na UE será supervisionada por um Escritório de IA dentro da Comissão Europeia e um Conselho Europeu de Inteligência Artificial, que aconselhará sobre a aplicação do AI Act.

Penalidades e Sanções

O não cumprimento do AI Act pode resultar em multas significativas. As penalidades são estabelecidas com base na gravidade da infração, podendo chegar até 3% do faturamento anual total da empresa ou €15.000.000, o que for maior.

Conclusão

Com o AI Act, a UE busca não apenas se estabelecer como referência em IA ética e regulamentada, mas também incentivar a inovação e a entrada de sistemas de IA desenvolvidos por pequenas e médias empresas (PMEs) no mercado. A criação de sandbox regulatórios é uma estratégia para permitir um ambiente controlado para experimentação e testes de IA.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...