A Lei de IA da UE: Primeiras Regras Entram em Vigor sobre Sistemas de IA Proibidos e Alfabetização em IA
Em 1º de agosto de 2024, a Lei de Inteligência Artificial da União Europeia (UE), a primeira estrutura legal abrangente sobre IA no mundo, entrou em vigor, estabelecendo prazos de conformidade escalonados para as diversas áreas que regula.
A Situação
Com a primeira data de conformidade em 2 de fevereiro de 2025, a UE aplicou a categoria de risco proibido, efetivamente proibindo o uso de sistemas de IA considerados como apresentando “riscos inaceitáveis”. Além disso, as Regras de Alfabetização em IA também se tornaram aplicáveis a partir dessa data.
Desenvolvimentos Futuros
Mais prazos de conformidade estão por vir, juntamente com a Comissão Europeia (CE) emitindo diretrizes adicionais para a conformidade com a Lei de IA. A CE também lançou o Segundo Rascunho do Código de Prática para IA de Uso Geral (GPAI), com o objetivo de fornecer clareza e apoiar a conformidade consistente para modelos de IA de uso geral.
Objetivos da Lei de IA
A Lei de IA da UE visa garantir que os sistemas de IA comercializados e utilizados na UE sejam seguros e respeitem os d direitos fundamentais e valores da UE. A Lei inclui um conjunto de regras baseadas em riscos para desenvolvedores e implementadores, aplicáveis a diferentes casos de uso de IA.
Ao adotar uma abordagem baseada em riscos, a Lei busca equilibrar a confiança do cliente com o investimento e a inovação no campo da IA na Europa.
Classificação de Sistemas de IA
Um recurso chave da Lei é a classificação dos sistemas de IA em diferentes categorias de risco: sistemas proibidos, alto risco e aqueles sujeitos a obrigações de transparência. Os modelos de IA de uso geral (GPAI) podem se enquadrar em qualquer uma dessas categorias, dependendo de sua aplicação e impacto potencial.
Primeiro Prazo de Conformidade
A partir de 2 de fevereiro de 2025, as seguintes disposições entraram em vigor:
- Sistemas de IA Proibidos: A aplicação da categoria de risco proibido efetivamente proíbe o uso de sistemas de IA considerados como apresentando “riscos inaceitáveis”. Isso inclui ferramentas que realizam pontuações sociais, manipulam ou exploram indivíduos, inferem emoções em ambientes de trabalho ou instituições educacionais, envolvem identificação biométrica em tempo real em espaços públicos e coleta não direcionada de imagens faciais pela internet ou CCTV.
- Regras de Alfabetização em IA: As regras de alfabetização exigem que todos os fornecedores e implementadores de sistemas de IA garantam que seu pessoal tenha um nível suficiente de compreensão sobre IA, incluindo suas oportunidades e riscos, para usar os sistemas de forma eficaz e responsável.
Diretrizes: Código de Prática para IA de Uso Geral
A CE lançou um Segundo Rascunho do Código de Prática para IA de Uso Geral para desenvolvedores de modelos GPAI. Este rascunho, desenvolvido com partes interessadas da indústria, visa fornecer clareza sobre os requisitos de conformidade para a aplicação consistente e eficaz da Lei de IA em toda a UE.
Além disso, a CE divulgou um modelo para resumir os dados de treinamento usados em modelos GPAI, um componente essencial do próximo Código de Prática GPAI.
Riscos de Não Conformidade / Aplicação
As proibições e obrigações da Lei de IA se aplicam a empresas que oferecem ou usam sistemas de IA. Os infratores enfrentam penalidades significativas, dependendo da natureza da não conformidade, incluindo o maior valor entre 35 milhões de euros ou 7% do seu faturamento anual global.
Próximos Prazos de Conformidade
O próximo grande prazo de conformidade é 2 de agosto de 2025, quando os Estados-Membros da UE devem designar autoridades nacionais responsáveis pela aplicação da Lei de IA. Neste dia, regras também entrarão em vigor sobre penalidades, governança e confidencialidade.
Em 2 de agosto de 2026, a maioria das outras obrigações da Lei de IA se tornará eficaz, incluindo regras aplicáveis a sistemas de IA de alto risco.
Passos Imediatos a Serem Tomados
As empresas devem avaliar se e como a Lei de IA se aplica a seus sistemas de IA ou modelos GPAI, realizando as seguintes etapas:
- Identificando e documentando todos os sistemas de IA ou modelos GPAI que uma empresa desenvolve ou implementa;
- Classificando todos os sistemas de IA ou modelos GPAI de acordo com a categoria de risco e requisitos de conformidade;
- Conduzindo uma análise de lacunas de conformidade e riscos para identificar e abordar quaisquer questões ou desafios de conformidade;
- Desenvolvendo e implementando uma estratégia de IA e um programa de governança, incluindo um programa de treinamento em alfabetização em IA para o pessoal.
Três Principais Conclusões
1. Após o prazo de conformidade em 2 de fevereiro de 2025, as empresas devem agir agora para avaliar como a Lei de IA se aplica aos seus sistemas de IA ou modelos de IA de Uso Geral.
2. Dada a evolução rápida da tecnologia e das estruturas regulatórias, as empresas devem realizar auditorias regulares para revisar e atualizar seus programas internos de governança, risco e conformidade para sistemas de IA.
3. A não conformidade com a Lei de IA pode resultar em penalidades significativas, incluindo até 35 milhões de euros ou 7% do faturamento anual global de uma empresa.