A Lei de IA da UE começa a entrar em vigor: o que saber e como se preparar
Em 2 de fevereiro de 2025, os Capítulos I e II da Lei de IA da União Europeia entraram em vigor. As duas disposições principais que passaram a valer dizem respeito às práticas de IA proibidas e à alfabetização em IA. Este artigo explica suas implicações tanto para os fornecedores (desenvolvedores) quanto para os usuários (exceto para atividades pessoais e não profissionais) de sistemas de IA e sugere passos a serem tomados agora para preencher a lacuna de conformidade.
Empresas fora da UE devem notar que o chamado “efeito Bruxelas” se aplica à Lei, significando que empresas não pertencentes à UE que implementam sistemas na UE, servem usuários baseados na UE ou utilizam saídas de IA dentro da UE ainda estarão dentro de seu escopo.
Práticas de IA Proibidas sob a Lei de IA da UE
O Artigo 5 da Lei de IA lista práticas de IA consideradas inaceitáveis devido aos seus riscos potenciais aos valores e direitos fundamentais da UE. Essas práticas devem ser lidas junto com as diretrizes recentemente publicadas pela Comissão Europeia. Embora não sejam legalmente vinculativas, as diretrizes — que aguardam adoção formal — provavelmente informarão a interpretação dos reguladores e dos tribunais do Artigo 5.
A legislação proíbe a colocação no mercado, a utilização e o uso de sistemas de IA nos seguintes contextos:
Manipulação ou engano prejudicial
A Lei proíbe sistemas de IA de empregar técnicas subliminares, manipulativas ou enganosas que possam distorcer o comportamento humano, levando os indivíduos a tomar decisões potencialmente prejudiciais. Exemplo de prática proibida: Uso de flashes de imagem rápidos alimentados por IA para influenciar decisões de compra.
Explotação de indivíduos com base em idade ou vulnerabilidades relacionadas à deficiência
Isso é proibido se distorcer o comportamento das pessoas de forma prejudicial. Exemplo de prática proibida: Uso de um sistema de IA que visa indivíduos mais velhos com tratamentos médicos desnecessários.
Classificação social levando a tratamento prejudicial injustificável
A Lei proíbe o uso de IA para classificar ou avaliar pessoas com base em seu comportamento social ou traços de personalidade, se isso resultar em tratamento desfavorável desproporcional. Exemplo de prática proibida: Uso de IA por uma agência de bem-estar social para estimar a probabilidade de fraude em benefícios de forma desproporcional.
Policiamento preditivo
A Lei proíbe a previsão do risco de alguém cometer um crime com base apenas em perfis ou na avaliação de traços de personalidade. Exemplo de prática proibida: Implementação de um sistema de IA para prever ofensas fiscais com base em perfis individuais.
Raspagem de imagem facial
Sistemas de IA não podem ser usados para criar ou expandir um banco de dados de reconhecimento facial por meio da raspagem de imagens faciais de forma não direcionada. Exemplo de prática proibida: Uso de IA para extrair características faciais de fotos de indivíduos em plataformas de mídia social.
Reconhecimento de emoções em ambientes de trabalho ou educacionais
O uso de IA para identificar ou inferir emoções em instituições profissionais ou educacionais é proibido, exceto por razões médicas. Exemplo de prática proibida: Detecção de raiva por IA durante interações de um funcionário em um call center.
Categorizações biométricas para deduzir informações sensíveis
Sistemas de IA que categorizar indivíduos com base em dados biométricos para inferir informações sensíveis não são permitidos. Exemplo de prática proibida: Uso de IA para analisar fotos em redes sociais a fim de inferir crenças políticas.
Identificação biométrica remota em tempo real para a aplicação da lei em espaços públicos
O uso de sistemas de IA para aplicação da lei é permitido apenas se estritamente necessário para:
- realizar uma busca direcionada por pessoas desaparecidas;
- prevenir uma ameaça específica e iminente à vida;
- identificar um suspeito como parte de uma investigação.
Alfabetização em IA: requisitos da Lei de IA da UE
O Artigo 4 da Lei exige que fornecedores e usuários tomem medidas para garantir que seus funcionários tenham um nível suficiente de alfabetização em IA. Essa exigência se aplica a todos os sistemas de IA, não apenas aqueles considerados de alto risco.
A falta de clareza sobre o que constitui um nível suficiente de alfabetização pode prejudicar a aplicação do Artigo 4 até que orientações adicionais sejam publicadas. Enquanto isso, as empresas podem consultar práticas de alfabetização em IA em andamento.
Enforcement e passos práticos
A Lei não menciona penalidades para não conformidade, mas a falsificação de relatórios sobre alfabetização em IA pode resultar em multas. As práticas de IA proibidas incorrerão nas maiores multas sob a Lei.
As organizações devem usar o período até a aplicação das leis para garantir a conformidade com os Artigos 4 e 5. Algumas etapas incluem:
- Fazer um inventário de todos os sistemas de IA na empresa.
- Criar recursos de alfabetização em IA, como programas de treinamento.
- Desenvolver programas de treinamento adaptados ao pessoal relevante.
- Estabelecer políticas de governança em IA para regular o desenvolvimento e a implantação de sistemas.
- Garantir transparência e responsabilidade documentando o propósito e os processos de cada sistema de IA usado.
As empresas que começarem agora a investir em conformidade com a Lei de IA da UE estarão bem posicionadas para navegar no cenário internacional em crescimento da regulamentação de IA.