Regras do Ato de IA da UE: Primeiras Restrições e Leitura Necessária

A Lei de IA da UE: Primeiras Regras Entram em Vigor sobre Sistemas de IA Proibidos e Alfabetização em IA

Em 1º de agosto de 2024, a Lei de Inteligência Artificial da União Europeia (UE), a primeira estrutura legal abrangente sobre IA no mundo, entrou em vigor, estabelecendo prazos de conformidade escalonados para as diversas áreas que regula.

A Situação

Com a primeira data de conformidade em 2 de fevereiro de 2025, a UE aplicou a categoria de risco proibido, efetivamente proibindo o uso de sistemas de IA considerados como apresentando “riscos inaceitáveis”. Além disso, as Regras de Alfabetização em IA também se tornaram aplicáveis a partir dessa data.

Desenvolvimentos Futuros

Mais prazos de conformidade estão por vir, juntamente com a Comissão Europeia (CE) emitindo diretrizes adicionais para a conformidade com a Lei de IA. A CE também lançou o Segundo Rascunho do Código de Prática para IA de Uso Geral (GPAI), com o objetivo de fornecer clareza e apoiar a conformidade consistente para modelos de IA de uso geral.

Objetivos da Lei de IA

A Lei de IA da UE visa garantir que os sistemas de IA comercializados e utilizados na UE sejam seguros e respeitem os d direitos fundamentais e valores da UE. A Lei inclui um conjunto de regras baseadas em riscos para desenvolvedores e implementadores, aplicáveis a diferentes casos de uso de IA.

Ao adotar uma abordagem baseada em riscos, a Lei busca equilibrar a confiança do cliente com o investimento e a inovação no campo da IA na Europa.

Classificação de Sistemas de IA

Um recurso chave da Lei é a classificação dos sistemas de IA em diferentes categorias de risco: sistemas proibidos, alto risco e aqueles sujeitos a obrigações de transparência. Os modelos de IA de uso geral (GPAI) podem se enquadrar em qualquer uma dessas categorias, dependendo de sua aplicação e impacto potencial.

Primeiro Prazo de Conformidade

A partir de 2 de fevereiro de 2025, as seguintes disposições entraram em vigor:

  • Sistemas de IA Proibidos: A aplicação da categoria de risco proibido efetivamente proíbe o uso de sistemas de IA considerados como apresentando “riscos inaceitáveis”. Isso inclui ferramentas que realizam pontuações sociais, manipulam ou exploram indivíduos, inferem emoções em ambientes de trabalho ou instituições educacionais, envolvem identificação biométrica em tempo real em espaços públicos e coleta não direcionada de imagens faciais pela internet ou CCTV.
  • Regras de Alfabetização em IA: As regras de alfabetização exigem que todos os fornecedores e implementadores de sistemas de IA garantam que seu pessoal tenha um nível suficiente de compreensão sobre IA, incluindo suas oportunidades e riscos, para usar os sistemas de forma eficaz e responsável.

Diretrizes: Código de Prática para IA de Uso Geral

A CE lançou um Segundo Rascunho do Código de Prática para IA de Uso Geral para desenvolvedores de modelos GPAI. Este rascunho, desenvolvido com partes interessadas da indústria, visa fornecer clareza sobre os requisitos de conformidade para a aplicação consistente e eficaz da Lei de IA em toda a UE.

Além disso, a CE divulgou um modelo para resumir os dados de treinamento usados em modelos GPAI, um componente essencial do próximo Código de Prática GPAI.

Riscos de Não Conformidade / Aplicação

As proibições e obrigações da Lei de IA se aplicam a empresas que oferecem ou usam sistemas de IA. Os infratores enfrentam penalidades significativas, dependendo da natureza da não conformidade, incluindo o maior valor entre 35 milhões de euros ou 7% do seu faturamento anual global.

Próximos Prazos de Conformidade

O próximo grande prazo de conformidade é 2 de agosto de 2025, quando os Estados-Membros da UE devem designar autoridades nacionais responsáveis pela aplicação da Lei de IA. Neste dia, regras também entrarão em vigor sobre penalidades, governança e confidencialidade.

Em 2 de agosto de 2026, a maioria das outras obrigações da Lei de IA se tornará eficaz, incluindo regras aplicáveis a sistemas de IA de alto risco.

Passos Imediatos a Serem Tomados

As empresas devem avaliar se e como a Lei de IA se aplica a seus sistemas de IA ou modelos GPAI, realizando as seguintes etapas:

  • Identificando e documentando todos os sistemas de IA ou modelos GPAI que uma empresa desenvolve ou implementa;
  • Classificando todos os sistemas de IA ou modelos GPAI de acordo com a categoria de risco e requisitos de conformidade;
  • Conduzindo uma análise de lacunas de conformidade e riscos para identificar e abordar quaisquer questões ou desafios de conformidade;
  • Desenvolvendo e implementando uma estratégia de IA e um programa de governança, incluindo um programa de treinamento em alfabetização em IA para o pessoal.

Três Principais Conclusões

1. Após o prazo de conformidade em 2 de fevereiro de 2025, as empresas devem agir agora para avaliar como a Lei de IA se aplica aos seus sistemas de IA ou modelos de IA de Uso Geral.

2. Dada a evolução rápida da tecnologia e das estruturas regulatórias, as empresas devem realizar auditorias regulares para revisar e atualizar seus programas internos de governança, risco e conformidade para sistemas de IA.

3. A não conformidade com a Lei de IA pode resultar em penalidades significativas, incluindo até 35 milhões de euros ou 7% do faturamento anual global de uma empresa.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...