Lei de IA da UE – Foco em Sistemas de Reconhecimento Emocional no Local de Trabalho
O reconhecimento emocional pela inteligência artificial (IA emocional) refere-se à IA que utiliza vários conjuntos de dados biométricos e outros, como expressões faciais, batidas de teclado, tom de voz e manias comportamentais para identificar, inferir e analisar emoções. Baseada na computação afetiva, com origens nos anos 90, este campo multidisciplinar reúne estudos de processamento de linguagem natural, psicologia e sociologia.
A IA emocional tem se beneficiado recentemente de níveis sem precedentes de poder computacional. A tecnologia de sensores sofisticados em dispositivos e IoT significa que enormes quantidades de dados podem ser avaliadas por esses sistemas. Assim, foi relatado que o mercado de IA emocional está projetado para crescer de USD 3 bilhões em 2024 para USD 7 bilhões nos próximos cinco anos.
A IA emocional está sendo cada vez mais implantada em muitos contextos, incluindo para detectar potenciais conflitos, crimes ou danos em espaços públicos, como estações de trem ou canteiros de obras. Ela também é utilizada nos setores de tecnologia e bens de consumo, onde percepções detalhadas do cliente, vendas hiperpersonalizadas e segmentação de mercado nuançada são o santo graal.
Uma variedade de organizações está competindo para oferecer aos clientes a chave para prever o que os consumidores realmente desejam, incluindo além dos tradicionais gigantes da tecnologia. Uma startup australiana está atualmente testando em beta o que chamou de “o primeiro modelo de linguagem emocional do mundo”, que visa rastrear emoções em tempo real. Outros estão lançando chatbots terapêuticos usando IA emocional para ajudar as pessoas a melhorarem sua saúde mental.
No entanto, como a IA emocional agora é uma tecnologia fortemente regulamentada, as organizações que desenvolvem e utilizam essas aplicações devem ficar dentro da lei.
Desde que entrou em vigor em 1º de agosto de 2024, a Lei de IA da UE impõe requisitos rigorosos em torno da IA emocional, classificando-a nas categorias de “Alto Risco” e “Uso Proibido”, dependendo do contexto.
A IA emocional que se enquadra na categoria Proibida já está efetivamente banida na UE. A partir de 2 de fevereiro de 2025, o Artigo 5(1)(f) da Lei de IA da UE proíbe “a colocação no mercado, a colocação em serviço para esse propósito específico ou o uso de sistemas de IA para inferir emoções de uma pessoa natural nas áreas de trabalho e instituições educacionais, … exceto onde o uso se destina a razões médicas ou de segurança”.
A Comissão Europeia publicou em 4 de fevereiro de 2025 as “Diretrizes sobre práticas proibidas de inteligência artificial” (Comunicação C(2025) 884 final, que nos referiremos como as Diretrizes) para fornecer mais informações sobre os parâmetros das várias definições.
Uso da IA Emocional em Configurações de Trabalho – Estudos de Caso
O primeiro estudo de caso envolve o uso de análise de sentimentos em chamadas de vendas. Considere a equipe de vendas ocupada em uma empresa de tecnologia que busca atingir sua meta no final do mês em termos de contato com novos clientes e fechamento de negócios. O Chief Revenue Officer dessa empresa global está baseado nos EUA e busca implementar um novo software que permitiria um treinamento uniforme de capacitação em vendas para a equipe global. Este software destacaria as características das chamadas realizadas pelos melhores desempenhos, comparando-as com os de menor desempenho. A equipe de vendas inteira é classificada em um leaderboard a cada mês, com os melhores vendedores sendo constantemente celebrados pela empresa.
A implementação de software de gravação e análise de chamadas é considerada inestimável para determinar a chave do sucesso em tais chamadas e, em última análise, da receita da empresa. O software rastreará métricas como o número de trocas de diálogo, a proporção fala-escuta e o momento ideal em que o preço é discutido. Além disso, como a linguagem de alguém é positiva ou negativa para determinar sua disposição em comprar. Este software hipotético é usado principalmente para focar no sentimento do cliente, mas tem o potencial de também captar o do representante de vendas. Ele afirma que pode identificar uma variedade de sentimentos ou emoções, incluindo o nível de entusiasmo com que realizam a chamada.
O segundo estudo de caso envolve uma consultoria ocupada que deseja expandir sua rede de recrutamento para acomodar aqueles que desejam se candidatar a cargos totalmente remotos, usando um processo de aplicação e integração totalmente remoto. A empresa está ansiosa para adotar um software que permita o agendamento de entrevistas usando uma plataforma que inclui recursos inovadores impulsionados por IA. Espera-se que, ao implementar a IA, ela possa mitigar o potencial viés dos entrevistadores humanos, tornando o processo mais objetivamente justo. As entrevistas são gravadas, transcrições são fornecidas e insights são oferecidos para diversos tomadores de decisão na organização, que não puderam participar da entrevista devido à diferença de fuso horário. A tecnologia inclui um recurso que avalia as expressões faciais dos candidatos, tom de voz e outros sinais não verbais para identificar entusiasmo ou confiança, estresse ou desengajamento.
Artigo 5 da Lei de IA da UE e Diretrizes
Apesar da popularidade da IA emocional no mercado tecnológico e sua ampla aplicação potencial, há pouco consenso científico sobre a confiabilidade dos sistemas de reconhecimento emocional. Essa preocupação é ecoada na Lei de IA da UE, que afirma, no Recital (44), que “a expressão de emoções varia consideravelmente entre culturas e situações, e mesmo dentro de um único indivíduo”. Esta é uma boa razão pela qual o uso de sistemas de IA destinados a detectar o estado emocional de indivíduos em situações relacionadas ao trabalho é categoricamente banido.
A Lei de IA da UE define ‘sistemas de reconhecimento emocional’ no Artigo 3(39) como sistemas de IA “com o propósito de identificar e inferir emoções ou intenções de pessoas naturais com base em seus dados biométricos.” Embora a redação da proibição no Artigo 5(1)(f) não se refira especificamente ao termo definido ‘sistema de reconhecimento emocional’, as Diretrizes esclarecem que ambos os conceitos de ‘reconhecimento emocional’ e ‘inferência emocional’ estão incluídos sob a proibição.
A identificação de uma emoção requer o processamento de dados biométricos (como voz ou imagem da expressão facial) que serão comparados com uma emoção que foi pré-programada ou aprendida e definida dentro do sistema de IA. A definição não inclui a observação de uma expressão aparente. O sistema precisa identificar a expressão e, em seguida, deduzir ou inferir uma emoção por trás dela. Portanto, observar que “o candidato está sorrindo” não aciona a proibição. Por outro lado, concluir “o candidato está feliz” com base no treinamento do sistema de IA sim. As Diretrizes também esclarecem que biometria comportamental, como batidas de teclado ou posturas corporais, também estão incluídas, enquanto o texto escrito, mesmo que contenha linguagem emocional, não está.
Embora a proibição no Artigo 5(1)(f) declare claramente que tais sistemas são apenas permissíveis quando usados por motivos de segurança, as Diretrizes realmente ampliam os casos de uso permissíveis para aparentemente permitir sistemas de reconhecimento emocional para fins de treinamento, desde que os resultados não sejam compartilhados com o RH, não tenham impacto na avaliação ou promoção ou “qualquer impacto na relação de trabalho”. No entanto, essa isenção de treinamento, embora mencionada nas Diretrizes, não se encontra em nenhuma das disposições ou considerações da própria Lei.
Como a Lei de IA da UE se Aplicaria aos Nossos Dois Estudos de Caso?
Aplicação ao Estudo de Caso 1
A IA emocional treinada para analisar sinais emocionais de agentes de chamadas de vendas pode ajudar os agentes a melhorar seu engajamento com os clientes. Este é um exemplo de uma área onde a inclusão da isenção de treinamento nas Diretrizes é provavelmente a mais relevante. Esta exceção será uma boa notícia para muitas empresas de tecnologia que dependem de software de análise de chamadas para fins de treinamento de vendas, que olharão para as Diretrizes para isentar seu caso de uso da proibição absoluta de IA emocional no trabalho prevista no Artigo 5(1)(f).
No entanto, a aplicação prática disso pode ser sutil e desafiadora em certos cenários, uma vez que muitas empresas que utilizam esse software em chamadas de vendas também tendem a aplicar processos de revisão de desempenho e esquemas de compensação que são fortemente baseados em comissões, calculados com base na receita dos negócios.
Onde um funcionário luta com baixas receitas, fica para trás na receita de comissões e consistentemente aparece na parte inferior das classificações da equipe de vendas, isso pode impactar as revisões de desempenho. Tal funcionário pode se tornar desengajado e agredido. Se a situação escalar para uma ação legal, um empregador pode achar desafiador provar que o sistema de reconhecimento emocional implantado nas chamadas foi usado apenas para fins de treinamento e não teve influência ou impacto nas decisões relacionadas a pagamento ou progressão ou, para esse assunto, qualquer impacto na relação de trabalho. Isso pode se tornar particularmente complexo sob a perspectiva do direito trabalhista. Alegações de viés poderiam surgir se o software de IA avaliar elementos discretos de maneira negativa, por exemplo, aqueles para quem o inglês não é sua língua nativa. Além disso, há uma obrigação sobre os empregadores de fazer ajustes razoáveis para funcionários com deficiência, caso sejam colocados em desvantagem por uma disposição/critérios/práticas. Um funcionário que seja neurodiverso pode ser colocado em desvantagem por esse tipo de software.
Portanto, embora possam haver fundamentos para argumentar que o sistema descrito neste estudo de caso é permissível com base na isenção de treinamento nas Diretrizes, é possível que as práticas disso ainda levem a desafios. Isso é particularmente o caso, dada a discrepância entre as Diretrizes e a própria Lei de IA da UE sobre o uso para treinamento, e as preocupações adicionais sobre direito trabalhista e proteção de dados que entram em jogo.
Aplicação ao Estudo de Caso 2
No nosso segundo estudo de caso, estamos lidando com o uso de IA emocional antes do início da relação de emprego. É claro tanto pela proibição na Lei quanto pelas Diretrizes que os parâmetros de ‘local de trabalho’ devem ser interpretados amplamente.
As Diretrizes esclarecem que local de trabalho inclui espaços físicos ou virtuais, temporários ou permanentes, edifícios, ao ar livre ou veículos, onde os funcionários realizam tarefas atribuídas por um empregador ou pela organização à qual estão afiliados (em caso de autoemprego). As Diretrizes também esclarecem que o conceito de ‘local de trabalho’ deve ser interpretado para se aplicar a candidatos durante o processo de seleção e contratação. Isso reflete o fato de que o desequilíbrio entre empregador e potencial empregado já está em jogo na fase de recrutamento.
Nos contextos de entrevista, incerteza, viés ou falha em fazer ajustes razoáveis para atender a condições específicas de funcionários ou deficiências incorporadas no sistema de IA emocional poderiam afetar significativamente a empregabilidade de indivíduos ou categorias de pessoas. A IA emocional pode, portanto, exacerbar as vulnerabilidades associadas à relação assimétrica entre empregador e empregado.
Na prática, qualquer sistema de IA que avalie as emoções de um candidato a entrevista cairá sob a proibição do Artigo 5(1)(f), pois não há uma isenção clara que possa se aplicar sob a Lei ou as Diretrizes. Além disso, as Diretrizes afirmam claramente que o uso de sistemas de reconhecimento emocional durante o processo de recrutamento ou período de experiência é proibido.
Conclusão – O Que Você Deve Fazer a Seguir?
A introdução da Lei de IA da UE significa que a maioria das empresas precisará aumentar sua vigilância em relação às suas práticas de IA, particularmente em aplicações que são implantadas em relação a funcionários ou candidatos a emprego.
Sistemas de governança apropriados, incluindo treinamento e educação internos, bem como a devida diligência e auditorias robustas, para permitir a identificação de qualquer uso potencial proibido de IA serão fundamentais para as organizações cumprirem com a Lei.
Fora das práticas proibidas no local de trabalho, as empresas que implantam sistemas de reconhecimento emocional em relação aos clientes ainda precisarão garantir conformidade com as regras para Sistemas de IA de Alto Risco. As disposições relevantes da Lei de IA da UE que se aplicam à IA de Alto Risco entrarão em vigor em agosto de 2026, e aguardamos mais orientações da Comissão Europeia quanto à interpretação das várias definições e obrigações em relação à IA Emocional de Alto Risco.
As consequências de fornecer ou usar Sistemas de IA Proibidos na UE atrairão o mais alto nível de multas sob a Lei de IA da UE, sendo o maior entre EUR 35.000.000 ou 7% do faturamento total anual mundial da organização. Dado que essa multa também poderia ser acoplada a uma multa sob o GDPR, tal organização poderia enfrentar uma multa de até 11% do faturamento total. Há também um impacto reputacional significativo por errar. Portanto, o momento de agir na construção da sua Governança de IA é agora!