Novo Ato de IA da UE para Regular Uso de IA até 2026
O Ato de IA da UE introduz regulamentações rigorosas sobre o uso da inteligência artificial na Europa, proibindo práticas como o rastreamento emocional no ambiente de trabalho e táticas enganosas online. Com a plena aplicação prevista para 2026, o ato visa proteger a privacidade, garantir a equidade e aumentar a transparência. As empresas deverão se adaptar às novas regras ou enfrentar multas pesadas, marcando uma mudança global em direção à governança responsável da IA, equilibrando inovação com salvaguardas éticas.
Diretrizes da Comissão Europeia
As diretrizes mais recentes da Comissão Europeia esclarecem as práticas de IA proibidas sob o Ato de IA da UE, que será totalmente aplicado até 2 de agosto de 2026. Entre as proibições, destaca-se a utilização de sistemas de reconhecimento emocional por IA nos locais de trabalho, exceto em aplicações médicas ou relacionadas à segurança.
Restrições Impostas
As novas restrições proíbem sistemas de IA que inferem emoções usando dados biométricos, como expressões faciais, padrões de voz e posturas corporais. Isso inclui:
- Monitoramento do tom emocional de funcionários durante reuniões híbridas.
- Rastreamento das emoções de funcionários em supermercados através de câmeras.
- Uso de webcams ou reconhecimento de voz em call centers para analisar emoções.
- Avaliação das respostas emocionais de candidatos durante recrutamentos.
Entretanto, existem exceções para indústrias de alto risco, como construção e manufatura, onde a detecção de emoções pode ajudar a identificar sinais de estresse e garantir o bem-estar dos trabalhadores.
Combate à Manipulação e ao Pré-julgamento por IA
Além do monitoramento emocional, o Ato de IA também proíbe táticas enganosas da IA, incluindo:
- Truques de design habilitados por IA que manipulam usuários a fazer compromissos financeiros indesejados.
- Exploração de usuários vulneráveis, como idosos ou pessoas com deficiência.
- Sistemas de pontuação social que classificam indivíduos com base em dados pessoais não relacionados.
- Policiamento preditivo por IA que avalia comportamentos criminosos apenas com base em dados biométricos.
As violações podem resultar em multas que variam de 1,5% a 7% da receita global da empresa, dependendo da gravidade da infração.
Comparação Global das Abordagens de IA
Com essas diretrizes, o Ato de IA da UE estabelece um precedente mais rigoroso em comparação ao modelo de conformidade voluntária dos Estados Unidos e à estratégia de IA da China, que enfatiza o controle estatal e a estabilidade social.
Embora as diretrizes não sejam legalmente vinculativas, elas servem como referência para o Tribunal de Justiça da União Europeia (TJUE) em caso de disputas legais. Os países da UE devem designar autoridades de vigilância do mercado até 2 de agosto de 2024 para iniciar a aplicação.
Ambição e Desafios
A ambição é fornecer segurança jurídica para aqueles que oferecem ou implantam sistemas de inteligência artificial no mercado europeu. À medida que as empresas enfrentam desafios de conformidade e custos crescentes, o Ato de IA deverá moldar o futuro da governança da IA, priorizando a privacidade, a justiça e a transparência em toda a União Europeia.
Protetores de Privacidade
As medidas visam criar um ambiente ético de IA na Europa, equilibrando inovação tecnológica com direitos humanos fundamentais. O Ato proíbe práticas de IA intrusivas, como o monitoramento das emoções dos funcionários através de webcams, salvaguardando os direitos de privacidade dos indivíduos.
Casos Notáveis de Monitoramento Emocional
Casos notáveis de rastreamento emocional de funcionários na Europa incluem:
- Uma instituição financeira proeminente: Em 2023, surgiram relatos de um banco que utilizou ferramentas de monitoramento que contribuíram para uma cultura de medo entre os funcionários.
- Um call center líder: Em 2024, um grande prestador de serviços de atendimento ao cliente se associou a uma empresa de IA para analisar interações, levantando preocupações éticas sobre a privacidade.
- Uma seguradora: Em 2024, um provedor de seguros implementou software de coaching por IA, que levantou questões sobre o impacto do monitoramento contínuo no bem-estar dos empregados.
Conclusão
O Ato de IA da UE estabelece um padrão rigoroso para o uso responsável da IA, priorizando a privacidade, a equidade e a transparência. Ao banir o reconhecimento emocional nos locais de trabalho e proibir táticas manipulativas de IA, o ato visa proteger os indivíduos enquanto assegura o desenvolvimento ético da IA. À medida que o prazo de 2026 se aproxima, as empresas devem reavaliar suas práticas de IA para se alinhar às novas regulamentações.