Lei de IA da UE – Foco nos Sistemas de Reconhecimento Emocional no Local de Trabalho
A inteligência artificial de reconhecimento emocional (Emotion AI) refere-se à IA que utiliza vários conjuntos de dados biométricos e outros, como expressões faciais, toques no teclado, tom de voz e maneiras comportamentais para identificar, inferir e analisar emoções. Baseada na computação afetiva, com origens na década de 90, este campo multidisciplinar reúne estudos de processamento de linguagem natural, psicologia e sociologia.
Recentemente, a Emotion AI se beneficiou de níveis sem precedentes de poder computacional. A tecnologia de sensores sofisticados em dispositivos e na Internet das Coisas (IoT) significa que enormes quantidades de dados podem ser avaliadas por esses sistemas. Assim, foi relatado que o mercado de Emotion AI está projetado para crescer de USD 3 bilhões em 2024 para USD 7 bilhões nos próximos cinco anos.
A Emotion AI está sendo cada vez mais implantada em muitos contextos, incluindo a detecção de potenciais conflitos, crimes ou danos em espaços públicos, como estações de trem ou canteiros de obras. Também é utilizada nos setores de tecnologia e bens de consumo, onde insights detalhados do cliente, vendas hiper-personalizadas e segmentação de mercado são o santo graal.
Diversas organizações estão competindo para fornecer aos clientes a chave para prever o que realmente desejam, incluindo startups inovadoras. Uma startup australiana está atualmente testando em beta o que chamou de “o primeiro modelo de linguagem emocional do mundo”, que visa rastrear emoções em tempo real. Outros estão lançando chatbots terapêuticos usando Emotion AI para ajudar as pessoas a melhorar sua saúde mental.
No entanto, como a Emotion AI é agora uma tecnologia fortemente regulamentada, as organizações que desenvolvem e utilizam essas aplicações devem se manter dentro da lei.
Desde a sua entrada em vigor em 1º de agosto de 2024, a Lei de IA da UE impõe requisitos rigorosos em torno da Emotion AI, classificando-a nas categorias de “alto risco” e “uso proibido”, dependendo do contexto.
A Emotion AI que se enquadra na categoria Proibida já está efetivamente banida na UE. A partir de 2 de fevereiro de 2025, o Artigo 5(1)(f) da Lei de IA da UE proíbe “a colocação no mercado, a colocação em serviço para este propósito específico ou o uso de sistemas de IA para inferir emoções de uma pessoa natural nas áreas de trabalho e instituições educacionais, … exceto quando o uso for destinado a razões médicas ou de segurança.”
A Comissão Europeia publicou em 4 de fevereiro de 2025 as “Diretrizes sobre práticas de inteligência artificial proibidas” (Comunicação C(2025) 884 final, que nos referiremos como as Diretrizes) para fornecer mais informações sobre os parâmetros das várias definições.
Uso da Emotion AI em Configurações de Trabalho – Estudos de Caso
O primeiro estudo de caso envolve o uso de análise de sentimentos em chamadas de vendas. Considere a equipe de vendas de uma empresa de tecnologia que busca garantir sua meta de final de mês em termos de contato com novos clientes e fechamento de negócios. O Diretor de Receita da empresa está buscando implementar um novo software que permitirá treinamento uniforme de capacitação em vendas para a equipe global.
O software destacará as características das chamadas realizadas pelos melhores desempenhos, comparando-as com os piores. A equipe de vendas inteira é classificada em um leaderboard a cada mês, com os melhores vendedores sendo constantemente celebrados pela empresa.
A implementação de software de gravação e análise de chamadas é considerada inestimável para determinar a chave do sucesso em tais chamadas e, por fim, a receita da empresa. O software rastreará métricas como o número de trocas de diálogo, a relação fala-ouvir e o momento ótimo para discutir preços. Também analisará o quão positiva ou negativa é a linguagem de alguém para determinar sua disposição para comprar.
O segundo estudo de caso envolve uma consultoria que deseja expandir sua rede de recrutamento para acomodar aqueles que desejam se candidatar a funções totalmente remotas, utilizando um processo de aplicação e integração totalmente remoto. A empresa está ansiosa para adotar software que permita agendar entrevistas usando uma plataforma com recursos inovadores impulsionados por IA.
Ela espera que, ao implementar a IA, possa mitigar o viés potencial dos entrevistadores humanos, tornando o processo mais objetivamente justo. As entrevistas são gravadas, transcrições são fornecidas e insights são apresentados para vários tomadores de decisão na organização, que não puderam comparecer à entrevista devido à diferença de fuso horário.
A tecnologia inclui um recurso que avalia as expressões faciais dos candidatos, o tom de voz e outras dicas não verbais para identificar entusiasmo ou confiança, estresse ou desinteresse.
Artigo 5 da Lei de IA da UE e Diretrizes
Apesar da popularidade da Emotion AI no mercado tecnológico e seu amplo potencial de aplicação, existe pouca concordância científica sobre a confiabilidade dos sistemas de reconhecimento emocional. Essa preocupação é ecoada na Lei de IA da UE, que afirma, no Considerando (44), que “a expressão de emoções varia consideravelmente entre culturas e situações, e até mesmo dentro de um único indivíduo”. Esta é uma boa razão pela qual o uso de sistemas de IA destinados a detectar o estado emocional de indivíduos em situações relacionadas ao trabalho é categoricamente banido.
A Lei de IA da UE define “sistemas de reconhecimento emocional” no Artigo 3(39) como sistemas de IA “para o propósito de identificar e inferir emoções ou intenções de pessoas naturais com base em seus dados biométricos”. Embora a redação da proibição no Artigo 5(1)(f) não se refira especificamente ao termo definido “sistema de reconhecimento emocional”, as Diretrizes esclarecem que tanto os conceitos de “reconhecimento emocional” quanto “inferência emocional” estão abrangidos pela proibição.
A identificação de uma emoção requer o processamento de dados biométricos (como voz ou imagem de expressão facial) a serem comparados com uma emoção que foi pré-programada ou aprendida e definida dentro do sistema de IA. A definição não inclui a observação de uma expressão aparente. O sistema precisa identificar a expressão e, em seguida, deduzir ou inferir uma emoção por trás dela. Portanto, observar que “o candidato está sorrindo” não aciona a proibição, enquanto concluir que “o candidato está feliz” com base no treinamento do sistema de IA o fará.
As Diretrizes também esclarecem que biometria comportamental, como toques no teclado ou posturas corporais, também está incluída, enquanto texto escrito, mesmo que contenha linguagem emocional, não está.
Enquanto a proibição no Artigo 5(1)(f) afirma claramente que tais sistemas só são permitidos quando usados por razões de segurança, as Diretrizes, na verdade, ampliam os casos de uso permissíveis para aparentemente permitir sistemas de reconhecimento emocional para fins de treinamento, desde que os resultados não sejam compartilhados com o RH, não tenham impacto na avaliação ou promoção ou “qualquer impacto no relacionamento de trabalho”.
Contudo, essa isenção de treinamento, embora mencionada nas Diretrizes, não se encontra em nenhuma das disposições ou considerações da própria Lei.
Como a Lei de IA da UE se Aplicaria aos Nossos Dois Estudos de Caso?
Aplicação ao Estudo de Caso 1
A Emotion AI treinada para analisar pistas emocionais de agentes de chamadas de vendas pode ajudar os agentes a melhorar seu engajamento com o cliente. Este é um exemplo de uma área onde a inclusão da isenção de treinamento nas Diretrizes é provavelmente mais relevante. Essa isenção será uma boa notícia para muitas empresas de tecnologia que dependem de software de análise de chamadas para fins de treinamento de funcionários de vendas, que olharão para as Diretrizes para isentar seu caso de uso da proibição total do Artigo 5(1)(f) sobre a Emotion AI no local de trabalho.
No entanto, a aplicação prática disso pode ser sutil e desafiadora em certos cenários, dado que muitas empresas que usam tal software em chamadas de vendas também tendem a aplicar processos de avaliação de desempenho e esquemas de compensação que são fortemente baseados em comissões, calculados com base na receita de negócios.
Quando um funcionário enfrenta baixa receita, fica para trás nos ganhos de comissão e consistentemente aparece na parte inferior do leaderboard da equipe de vendas, isso pode impactar as avaliações de desempenho. Esse funcionário pode se tornar desengajado e insatisfeito. Se a situação escalar para uma ação legal, um empregador pode achar desafiador provar que o sistema de reconhecimento emocional implantado nas chamadas foi usado apenas para fins de treinamento e não teve influência nas decisões relacionadas ao pagamento ou progressão ou, de fato, qualquer impacto no relacionamento de trabalho.
Isso pode se tornar particularmente complexo sob a ótica do direito trabalhista. Alegações de viés podem surgir se o software de IA avaliar negativamente elementos discretos de forma negativa, por exemplo, aqueles para quem o inglês não é sua primeira língua. Separadamente, há uma obrigação dos empregadores de fazer ajustes razoáveis para funcionários que são deficientes, se forem colocados em desvantagem por uma provisão/critérios/prática.
Um funcionário neurodiverso poderia ser colocado em desvantagem por esse tipo de software.
Portanto, enquanto pode haver fundamentos para argumentar que o sistema descrito neste estudo de caso é permissível com base na isenção de treinamento nas Diretrizes, é possível que as práticas disso ainda levem a desafios. Isso é particularmente o caso, dada a discrepância entre as Diretrizes e a Lei de IA da UE em si sobre o uso para treinamento, e as preocupações adicionais de direito trabalhista e proteção de dados que entram em jogo.
Aplicação ao Estudo de Caso 2
No nosso segundo estudo de caso, estamos lidando com o uso da Emotion AI antes do início da relação de emprego. É claro, tanto pela proibição na Lei quanto pelas Diretrizes, que os parâmetros de “local de trabalho” devem ser interpretados amplamente.
As Diretrizes esclarecem que local de trabalho inclui espaços físicos ou virtuais, temporários ou permanentes, edifícios, áreas externas ou veículos, onde os funcionários realizam tarefas atribuídas por um empregador ou pela organização à qual estão afiliados (no caso de autoemprego). As Diretrizes também esclarecem que o conceito de “local de trabalho” deve ser interpretado para se aplicar a candidatos durante o processo de seleção e contratação. Isso reflete o fato de que o desequilíbrio entre empregador e potencial empregado já está em jogo na fase de recrutamento.
No contexto das entrevistas, imprecisão, viés ou falha em fazer ajustes razoáveis para atender a condições específicas ou deficiências dos funcionários embutidas no sistema de Emotion AI poderiam afetar significativamente a empregabilidade de indivíduos ou categorias de pessoas. A Emotion AI pode, portanto, agravar claramente as vulnerabilidades associadas à relação assimétrica entre empregador e empregado.
Na prática, qualquer sistema de IA que avalie as emoções de um candidato a entrevista se enquadrará na proibição do Artigo 5(1)(f), pois não há uma isenção clara que possa se aplicar sob a Lei ou mesmo as Diretrizes, que afirmam claramente que o uso de sistemas de reconhecimento emocional durante o processo de recrutamento ou período de experiência é proibido.
Conclusão – O Que Você Deve Fazer a Seguir?
A introdução da Lei de IA da UE significa que a maioria das empresas precisará aumentar sua vigilância em relação às suas práticas de IA, particularmente em aplicações implantadas em relação a funcionários ou candidatos a emprego.
Sistemas de governança apropriados, incluindo treinamento e educação interna, bem como due diligence robusta e auditorias, para permitir a identificação de qualquer potencial uso proibido de IA, serão fundamentais para as organizações em conformidade com a Lei.
Fora das práticas proibidas no local de trabalho, as empresas que implantarem sistemas de reconhecimento emocional em relação a clientes ainda precisarão garantir conformidade com as regras para Sistemas de IA de Alto Risco. As disposições relevantes da Lei de IA da UE que se aplicam à IA de Alto Risco entrarão em vigor em agosto de 2026, e aguardamos mais orientações da Comissão Europeia quanto à interpretação das várias definições e obrigações em relação à Emotion AI de Alto Risco.
As consequências de fornecer ou utilizar Sistemas de IA Proibidos na UE atrairão o mais alto nível de multas sob a Lei de IA da UE, no valor maior entre EUR 35.000.000 ou 7% do faturamento total mundial anual da organização. Dada essa multa, que poderia ainda ser acompanhada de uma multa sob o GDPR, a organização poderia enfrentar uma multa de até 11% do faturamento total. Também há um impacto reputacional significativo por errar nesse aspecto. Portanto, o momento de agir na construção da sua Governança de IA é agora!