Como a ISO 42001 e o NIST AI RMF Ajudam na Conformidade com a Lei de IA da UE

Uso da ISO 42001 e NIST AI RMF para Ajudar com a Lei de IA da UE

A adoção de tecnologias de IA disparou nos últimos anos. Em 2019, 58% das organizações usavam IA para pelo menos uma função de negócios; até 2024, esse número saltou para 72%. O uso de genAI quase dobrou de 2023 para 2024, passando de apenas 33% para 65%.

O que é a Lei de IA da UE?

  • A Lei de Inteligência Artificial da União Europeia (AI Act) Regulamento (UE) 2024/1689 é uma regulamentação da União Europeia sobre inteligência artificial (IA).
  • Estabelece um quadro regulatório e legal comum para a IA dentro da União Europeia (UE) e entrou em vigor em 1º de agosto de 2024.
  • Cobre todos os tipos de IA em vários setores, exceto para sistemas de IA usados exclusivamente para fins militares, segurança nacional, pesquisa e propósitos não profissionais.
  • É projetada para ser aplicável em várias aplicações e contextos de IA.
  • É uma lei com requisitos específicos de conformidade.

A Lei de IA da UE encontra um equilíbrio cuidadoso entre inovação e segurança na inteligência artificial. Ao estabelecer diretrizes claras para gestão de riscos, monitoramento contínuo do sistema e supervisão humana, cria uma base para a IA em que as pessoas podem confiar.

A Lei protege direitos fundamentais como privacidade e garante que os sistemas de IA não discriminen injustamente. Talvez mais importante, oferece aos desenvolvedores e empresas de IA um quadro regulatório unificado em toda a Europa – proporcionando a clareza necessária para inovar com confiança enquanto protege os interesses do consumidor.

Quem será afetado?

  • Organizações que usam IA e operam dentro da UE.
  • Organizações fora da UE que fazem negócios (desenvolvendo ou usando sistemas de IA) na UE.

Quem não será afetado?

É importante entender o que está fora do escopo da Lei de IA. A regulamentação adota uma abordagem de não intervenção para aplicações militares e de segurança nacional, sejam desenvolvidas por organizações públicas ou privadas. Da mesma forma, sistemas de IA dedicados exclusivamente à pesquisa e desenvolvimento científico estão isentos dessas regras, permitindo que os pesquisadores inovem sem restrições regulatórias. O princípio fundamental a ser lembrado é que a Lei só se aplica quando os sistemas de IA são implantados ou comercializados – durante o desenvolvimento, essas regras permanecem inativas.

Multas da Lei de IA da UE

  • Para não conformidade com as práticas de IA proibidas, as organizações podem ser multadas em até EUR 35.000.000 ou 7% do faturamento anual mundial, o que for maior.
  • Para não conformidade com os requisitos para sistemas de IA de alto risco, as organizações podem ser multadas em até EUR 15.000.000 ou 3% do faturamento anual mundial, o que for maior.
  • A provisão de informações incorretas, incompletas ou enganosas às autoridades pode resultar em multas de até EUR 7.500.000 ou 1% do faturamento anual mundial, o que for maior.

Principais atores sob a Lei de IA da UE

Abordagem baseada em riscos da Lei de IA da UE

1. Riscos inaceitáveis:

Sistemas de IA que permitem práticas de manipulação, exploração e controle social são vistos como apresentando um risco inaceitável.

Exemplo: Implantação de técnicas subliminares, manipulativas ou enganosas, exploração de vulnerabilidades relacionadas à idade, deficiência ou circunstâncias socioeconômicas, pontuação social, identificação biométrica remota em tempo real (RBI), compilação de bancos de dados de reconhecimento facial.

Sistemas de IA com riscos inaceitáveis / Sistemas de IA proibidos não podem ser implantados no mercado da UE.

2. Riscos altos:

Sistemas de IA que afetam negativamente a segurança ou direitos fundamentais serão considerados de alto risco.

Exemplo: Biométricos, infraestrutura crítica, como abastecimento de água, aplicação da lei, processos judiciais e democráticos.

Estabelecer um sistema de gestão de riscos, conduzir governança de dados e estabelecer um sistema de gestão de qualidade para garantir conformidade / Sistemas de IA de alto risco podem ser implantados no mercado da UE após a mitigação dos riscos.

3. Riscos limitados:

Alguns sistemas de IA destinados a interagir com pessoas naturais ou gerar conteúdo não necessariamente qualificam como sistemas de IA de alto risco, mas podem envolver riscos de impersonificação ou engano. Isso inclui os resultados da maioria dos sistemas de IA generativa.

Exemplo: Chatbots e Deepfakes.

Submetidos a obrigações de transparência mais leves, garantindo que os usuários finais estejam cientes de que estão interagindo com IA / Sistemas de IA de Riscos Limitados podem ser implantados no mercado da UE com controle de supervisão humana e atividades de monitoramento.

4. Riscos mínimos:

A Lei de IA não define esta categoria. Inclui sistemas de IA que não se enquadram em outras categorias, como jogos de vídeo habilitados para IA ou filtros de spam.

Exemplo: Jogos de vídeo habilitados para IA e filtros de spam.

Desregulados no mercado da UE / Sistemas de IA de Riscos Mínimos podem ser implantados no mercado da UE.

Compreendendo o NIST AI Risk Management Framework (RMF) e ISO/IEC 42001

  • Projetado para fornecer uma abordagem estruturada.
  • Para gerenciar riscos associados às tecnologias de IA.
  • Assegura desenvolvimento, implantação e uso responsáveis, éticos e confiáveis de sistemas de IA.

O que é a ISO/IEC 42001:2023?

  • A ISO/IEC 42001 é um padrão internacional que especifica requisitos para estabelecer, implementar, manter e melhorar continuamente um Sistema de Gestão de Inteligência Artificial (AIMS) dentro das organizações.
  • Projetado para entidades que fornecem ou utilizam produtos ou serviços baseados em IA, garantindo desenvolvimento e uso responsáveis de sistemas de IA.
  • Organizações de qualquer tamanho envolvidas no desenvolvimento, fornecimento ou uso de produtos ou serviços baseados em IA. É aplicável em todos os setores e relevante para agências do setor público, bem como empresas ou organizações sem fins lucrativos.
  • Projetado para ser aplicável em várias aplicações e contextos de IA.

Requisitos mapeados

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...