Transparência, bons dados e documentação: Como os Recursos Humanos podem navegar pela Lei de IA da UE
A inclusão da inteligência artificial (IA) no local de trabalho sob as proibições da Lei de Inteligência Artificial da UE impõe às equipes de Recursos Humanos (RH) a necessidade de reavaliar suas diversas aplicações de IA para atender aos requisitos de conformidade.
A IA utilizada em emprego e no ambiente de trabalho é considerada “de alto risco” e, portanto, sujeita a estipulações legais se puder afetar a saúde, segurança ou emprego de uma pessoa. O uso de sistemas de reconhecimento emocional no local de trabalho é proibido.
No entanto, nem todas as implementações de IA focadas em RH são consideradas de alto risco. Para entender essa distinção, é importante considerar como os reguladores têm abordado a IA através de regulamentações existentes, como o Regulamento Geral sobre a Proteção de Dados da UE (GDPR).
Obrigações de Avaliação de Impacto
Os reguladores de proteção de dados já estão levando a obrigação de conduzir avaliações de impacto sobre a proteção de dados (DPIAs) muito a sério no contexto dos sistemas de IA. Essa questão foi discutida em um painel de governança de IA na Europa, onde participantes enfatizaram a importância da conformidade com a nova regulamentação.
As práticas padrão de transparência de dados, incluindo documentação adequada e limitação de propósito, se aplicam aos casos de uso de IA. Antes de tudo isso, qualquer uso de IA em RH deve começar com a resposta a uma pergunta central: “Qual problema você está tentando resolver ao usar IA?”
Seja o mais transparente possível
Ser aberto sobre por que você está coletando dados e para que eles são utilizados ajuda a esclarecer muitos problemas potenciais desde o início. A transparência inicial ajuda a construir o caso para interesses legítimos, mesmo com um uso de IA de baixo risco.
A clareza também apoia o conceito de consentimento livremente dado para a coleta de dados, que é um pilar do GDPR. Um exemplo disso foi uma decisão do Tribunal Judicial de Nanterre, que ordenou que uma empresa não consultou adequadamente o Comitê Social e Econômico antes de implementar ferramentas de IA em larga escala.
O tribunal decidiu que a implementação da IA deveria ser suspendida até que os representantes dos empregados fossem informados sobre o que a IA estava fazendo e como estava funcionando, destacando a importância da confiança através da transparência e consulta.
Pense cuidadosamente sobre a anonimização
A remoção de características identificadoras dos dados de treinamento de um modelo de IA tem sido vista como uma forma de garantir a privacidade e a proteção de dados. No entanto, a forma como isso é feito pode deixar espaço para reidentificação, tornando o processamento passível de escrutínio.
A anonimização permite a remoção permanente de identificadores, mas a implementação pode ser desafiadora para os departamentos de RH. Muitas vezes, um conjunto de dados pode ser anonimizado hoje, mas um algoritmo de IA desenvolvido no futuro pode reidentificar os dados.
As empresas devem garantir que os dados usados na IA permaneçam confidenciais para outros clientes e empregados, sendo céticas em relação às alegações dos fornecedores sobre informações inidentificáveis.
Documentação e Justificativa
Após decidir se o uso de IA é de alto risco e se os dados de treinamento estão suficientemente protegidos, os departamentos de RH devem apresentar uma justificativa clara sobre como as decisões foram tomadas. A explicação retroativa não é suficiente; documentos contemporâneos devem estar disponíveis para justificar a razão por trás das decisões.
A Lei de IA também exige que sistemas de alto risco tenham documentação sobre como eles funcionam e quais riscos podem apresentar, com requisitos para informações atualizadas regularmente.
As DPIAs são os melhores meios de apoiar um caso de uso, pois ajudam os reguladores a entender todos os aspectos do processo de tomada de decisão. Documentação sobre por que uma DPIA não foi necessária também é importante, já que nem todos os usos de IA em RH podem atender ao limiar de alto risco.