Introdução de Novas Regras da U.E. sobre o Uso de IA no Local de Trabalho
A União Europeia está impondo regras rigorosas sobre as atividades de inteligência artificial (IA) que apresentam altos e inaceitáveis riscos, incluindo aquelas implementadas no local de trabalho.
A Lei de IA
A Lei de IA, que está sendo implementada em etapas até 2 de agosto de 2026, se aplica a todos os estados membros, sem a necessidade de legislação local ser adotada, embora alguns estados possam optar por fazê-lo. A lei classifica, define e regula a atividade de IA com base em quatro níveis de risco: inaceitável, alto, limitado e mínimo.
Proibições e Regulamentações
As aplicações de IA que apresentam um nível de risco inaceitável são proibidas. Isso inclui o uso desses sistemas para classificação social, como avaliar ou categorizar pessoas com base em comportamentos sociais ou características de personalidade, resultando em tratamento prejudicial ou desfavorável. Além disso, a categorização biométrica para inferir atributos pessoais protegidos, como raça, afilição sindical e orientação sexual, também está proibida. A proibição de aplicações de IA proibidas entrou em vigor em 2 de fevereiro de 2025.
IA de Alto Risco
Os sistemas de IA de alto risco estarão sujeitos a regulamentações substanciais, com a maioria das obrigações recaindo sobre os desenvolvedores do sistema. Os implementadores de sistemas de alto risco, incluindo empregadores, terão obrigações menores, como garantir a supervisão humana e o uso adequado do sistema. Diretrizes adicionais de implementação para sistemas de alto risco serão divulgadas até 2 de fevereiro de 2026. As exigências relacionadas a sistemas de alto risco entrarão em vigor em 2 de agosto de 2026.
Para sistemas de IA de alto risco utilizados no local de trabalho, os empregadores devem informar os representantes dos trabalhadores e os trabalhadores afetados antes de colocar o sistema em funcionamento.
Definição de Sistemas de IA de Alto Risco
A Lei define os sistemas de IA de alto risco relacionados ao emprego como aqueles utilizados para recrutamento ou seleção de indivíduos (em particular, colocando anúncios de emprego direcionados), analisando e filtrando candidaturas e avaliando candidatos, além de tomar decisões que afetam os termos das relações de trabalho, promovendo ou terminando contratos de trabalho, alocando tarefas com base em comportamentos individuais ou características pessoais, ou monitorando e avaliando o desempenho e comportamento de pessoas nessas relações.
Obrigações para Sistemas de Risco Limitado
Os sistemas de IA de risco limitado estão sujeitos a obrigações de transparência mais leves. Por exemplo, as empresas devem garantir que os usuários finais estejam cientes de que estão interagindo com IA. Já as atividades de IA de risco mínimo — a maioria da IA atualmente em uso — permanecem em grande parte não regulamentadas.
Conclusão
As novas regras da União Europeia sobre o uso de IA no local de trabalho visam proteger os direitos dos trabalhadores e garantir que a implementação de tecnologias avançadas ocorra de maneira responsável e ética. Com a classificação dos riscos e as respectivas proibições, a U.E. busca não apenas regular a tecnologia, mas também promover um ambiente de trabalho seguro e justo para todos.