AI Act da UE: Obrigações para Empregadores
O AI Act — uma importante regulamentação europeia que governa o uso de sistemas de inteligência artificial (IA) — está entrando em vigor em etapas até 2 de agosto de 2026. Como uma regulamentação, aplica-se a todos os estados membros sem a necessidade de legislação local complementar, embora alguns estados possam optar por fazê-lo (por exemplo, a Espanha aprovou legislação correspondente em março de 2025).
Detalhes Chave
O ato classifica, define e regula a atividade de IA com base em quatro níveis de risco: Inaceitável, Alto, Limitado e Mínimo.
- Aplicações de IA que apresentam um nível de risco inaceitável são proibidas. Isso inclui a utilização de sistemas de IA para “pontuação social” (ou seja, avaliar ou categorizar pessoas com base em comportamento social ou características de personalidade, resultando em tratamento prejudicial ou desfavorável) ou para categorização biométrica que inferem atributos pessoais “protegidos”, como raça, associação sindical e orientação sexual. A proibição dessas aplicações de IA entrou em vigor em 2 de fevereiro de 2025.
- Sistemas de IA de alto risco estarão sujeitos a uma regulamentação substancial, com a maior parte aplicando-se aos desenvolvedores do sistema. Os empregadores que implantam sistemas de alto risco estarão sujeitos a obrigações menores, como garantir supervisão humana e uso adequado do sistema. Diretrizes adicionais de implementação para sistemas de alto risco devem ser divulgadas até 2 de fevereiro de 2026, e os requisitos do ato relacionados a sistemas de alto risco geralmente entram em vigor em 2 de agosto de 2026.
- Para sistemas de IA de alto risco utilizados no local de trabalho, os empregadores devem informar os representantes dos trabalhadores e os trabalhadores afetados antes de colocar o sistema em operação. O ato define sistemas de IA de alto risco relacionados ao emprego como aqueles utilizados para:
- Recrutamento ou seleção de indivíduos (em particular, a colocação de anúncios de emprego direcionados), análise e filtragem de candidaturas e avaliação de candidatos.
- Tomar decisões que afetam os termos das relações contratuais de trabalho, promover ou rescindir relações contratuais de trabalho, alocar tarefas com base no comportamento individual ou características pessoais, ou monitorar e avaliar o desempenho e comportamento de pessoas nessas relações.
- Sistemas de IA de risco limitado estão sujeitos a obrigações de transparência mais leves (por exemplo, os desenvolvedores e implantadores devem garantir que os usuários finais estejam cientes de que estão interagindo com IA); a atividade de IA de risco mínimo (a maior parte da IA atualmente em uso) permanece em grande parte não regulamentada.
Implicações para Empregadores
Os empregadores devem avaliar a classificação de risco dos sistemas de IA implantados no local de trabalho ou como parte do processo de emprego e garantir a conformidade com as disposições do ato, incluindo comunicações com os empregados e designação de supervisão humana conforme apropriado. Vale ressaltar que grande parte da controvérsia em torno do ato é que ele busca regular capacidades potenciais (bem como reais) dos sistemas de IA, potencialmente inibindo o desenvolvimento e a utilização de novos sistemas de IA.
O ato define um sistema de IA como “um sistema baseado em máquina que é projetado para operar com diferentes níveis de autonomia e que pode exibir adaptabilidade após a implantação, e que, para objetivos explícitos ou implícitos, infere, a partir da entrada que recebe, como gerar saídas como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.”
Contato para Dúvidas
Unidade Global de Pesquisa
Email: global.research@willistowerswatson.com