Novo Ato da UE limita sistemas de reconhecimento emocional no trabalho

A nova Lei de IA da UE restringe sistemas de reconhecimento emocional em ambientes de trabalho

A nova Lei de Inteligência Artificial da União Europeia (UE) introduz restrições significativas ao uso de sistemas de reconhecimento emocional no local de trabalho, visando proteger a privacidade dos trabalhadores e prevenir práticas discriminatórias.

Diretrizes e Proibições

As diretrizes proíbem o uso de sistemas de IA que inferem emoções a partir de dados biométricos, como movimentos corporais, posturas e digitação.

Essas diretrizes têm como objetivo garantir a aplicação consistente, efetiva e uniforme da Lei de IA em toda a União Europeia. Embora ofereçam insights valiosos sobre a interpretação das proibições, são consideradas não vinculativas, com interpretações autoritárias reservadas ao Tribunal de Justiça da União Europeia (CJEU).

Sistemas de Reconhecimento Emocional

As restrições se aplicam também a sistemas de reconhecimento emocional durante os períodos de recrutamento e experiência. Exemplos de proibições incluem:

  • O uso de sistemas de IA para monitorar o tom emocional em equipes de trabalho híbridas, identificando e inferindo emoções a partir de vozes e imagens de chamadas de vídeo.
  • Supermercados não podem usar câmeras para rastrear as emoções de seus funcionários, como a felicidade.
  • Centros de atendimento não podem utilizar webcams e sistemas de reconhecimento de voz para monitorar as emoções dos empregados.

No entanto, essas ferramentas podem ser utilizadas para treinamento pessoal, desde que os dados não sejam compartilhados com pessoas responsáveis pelos recursos humanos e não impactem a avaliação e promoção do empregado.

Abordando os Riscos de Privacidade da IA

A lei busca abordar preocupações relacionadas à privacidade e ao potencial de viés na detecção emocional conduzida por IA. Sistemas de reconhecimento emocional, que analisam os estados emocionais dos indivíduos, levantam questões éticas devido à variabilidade da expressão emocional entre culturas e indivíduos.

A proibição visa proteger a dignidade dos trabalhadores e evitar práticas discriminatórias. Contudo, existem exceções para sistemas de IA utilizados para monitorar estados emocionais para fins médicos ou relacionados à segurança.

Por exemplo, a IA pode ser utilizada em ambientes de alto risco, como fábricas ou canteiros de obras, para identificar sinais de estresse ou burnout, desde que a tecnologia esteja diretamente vinculada ao bem-estar e à segurança do empregado.

Aplicação da Lei

A Lei de Inteligência Artificial da UE foi promulgada em agosto de 2024 e será totalmente aplicável a partir de 2 de agosto de 2026. A ambição é proporcionar segurança jurídica para aqueles que fornecem ou implementam sistemas de inteligência artificial no mercado europeu, além de auxiliar as autoridades de monitoramento de mercado.

As diretrizes, embora não vinculativas, representam um passo significativo em direção à regulamentação do uso de tecnologias de IA, garantindo que o desenvolvimento e a implementação dessas ferramentas sejam realizados de forma ética e responsável.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...