Appel à la transparence sur l’utilisation de l’IA dans le recrutement en Australie
Les employeurs australiens se tournent de plus en plus vers l’intelligence artificielle pour sélectionner les candidats, mais il n’existe toujours aucune obligation légale d’informer les candidats lorsque des algorithmes, et non des humains, prennent des décisions clés concernant leur carrière.
Un vide juridique croissant
Ce manque de transparence est jugé « étrange » et de plus en plus insoutenable face à l’adoption rapide de l’IA dans le recrutement. Environ 62 % des organisations australiennes utilisent déjà l’IA dans leurs processus de recrutement, avec une adoption encore plus élevée parmi les entreprises mondiales. Pourtant, il n’existe aucune loi explicite exigeant que les employeurs du secteur privé divulguent l’utilisation de l’IA dans les annonces d’emploi ou lors du recrutement.
Il semble donc nécessaire d’introduire une réglementation ou des exigences de divulgation. Au minimum, les candidats devraient savoir comment les employeurs utilisant l’IA pour filtrer les candidats gèrent les biais potentiels des algorithmes.
Réglementations existantes et lacunes
Bien qu’il n’existe pas de régime de divulgation dédié à l’IA pour les employeurs privés, certaines réglementations existantes abordent déjà les questions liées à l’IA dans le recrutement. Les réformes en matière de confidentialité en cours de discussion pourraient interagir avec les pratiques de recrutement, notamment concernant la manière dont les informations personnelles sont collectées et traitées. Cependant, il est peu probable que ces réformes abordent pleinement l’impact négatif qu’une dépendance exclusive à l’IA peut avoir.
Les agences gouvernementales, en revanche, doivent publier des déclarations de transparence lorsqu’elles utilisent des systèmes automatisés à haut risque, y compris des outils de recrutement automatisés. Ces déclarations exigent la divulgation des effets sur les personnes, des risques encourus et des mesures de protection, mais ces obligations n’ont pas été étendues au secteur privé.
Des litiges en perspective
Le vide juridique actuel pourrait être de courte durée. Des discussions sur la nécessité de lois émergent, notamment en raison des préoccupations concernant les biais pouvant résulter des algorithmes. Des voies juridiques existent déjà pour contester un traitement injuste, et des cas similaires ont été observés dans d’autres juridictions. À mesure que l’IA s’intègre davantage dans le recrutement, une évolution vers des processus définis est attendue.
Risques pour les groupes vulnérables
Bien que l’IA dans le recrutement puisse être « significativement précieuse » lorsqu’elle est utilisée correctement, elle comporte des risques. Les outils d’IA peuvent désavantager des groupes tels que les femmes, les personnes dont la langue maternelle n’est pas l’anglais, ainsi que les travailleurs plus jeunes ou plus âgés. Ces inégalités peuvent être exacerbées si les données historiques utilisées pour alimenter les algorithmes reflètent des biais passés.
Importance du jugement humain
Malgré les avantages de l’automatisation, il est crucial que le jugement humain ne soit pas remplacé dans les étapes critiques du recrutement. L’IA ne peut pas capturer des éléments tels que l’énergie et l’adéquation culturelle d’un candidat. Alors que les employeurs augmentent leur utilisation de l’IA dans les annonces d’emploi et le filtrage des candidats, il est important de maintenir la transparence, de gérer activement les biais et d’impliquer les humains dans le processus.
Sans cela, l’Australie risque de laisser des algorithmes silencieux façonner des carrières et des moyens de subsistance dans un flou juridique, avec une régulation et des litiges plus aigus à venir.