Utilisation de l’IA dans le recrutement et l’embauche – Considérations pour les entreprises de l’UE et des États-Unis
L’utilisation de l’IA transforme le paysage du recrutement à l’échelle mondiale, rendant des processus tels que le dépouillement des CV et l’engagement des candidats plus efficaces. Cela se fait par :
- l’utilisation de recherches par mots-clés pour classer et éliminer automatiquement des candidats d’un pool de candidats avec un minimum de supervision humaine ;
- l’exécution de tâches de recrutement via des chatbots qui interagissent avec les candidats ;
- la formulation de tests de compétences et d’aptitudes ;
- l’analyse de vidéos d’entretiens pour évaluer la pertinence d’un candidat pour un poste particulier.
En plus de maximiser l’efficacité, l’IA peut également être utilisée pour prendre des décisions automatisées et substantielles liées au recrutement, à l’embauche et à la performance grâce à l’utilisation de prévisions analytiques qui anticipent le succès d’un candidat dans un rôle spécifique.
Réglementation de l’utilisation de l’IA dans l’Union Européenne et aux États-Unis
L’Union Européenne a adopté une approche unifiée de la réglementation de l’IA, avec le Règlement de l’UE sur l’Intelligence Artificielle (Règlement sur l’IA de l’UE), en vigueur depuis le 1er août 2024. Ce règlement s’applique à tous les fournisseurs et déployeurs basés dans l’UE, ainsi qu’à ceux qui mettent sur le marché un système d’IA ou utilisent les résultats d’un système d’IA dans l’UE.
Le Règlement de l’UE sur l’IA classe les systèmes d’IA en différentes catégories de risque, les règles applicables devenant plus strictes à mesure que le risque pour la santé, la sécurité et les droits fondamentaux augmente. Par exemple, une réglementation minimale pour les filtres anti-spam, une réglementation limitée pour les chatbots, une réglementation élevée pour l’utilisation dans le recrutement, et une utilisation inacceptable de l’IA pour le scoring social et la reconnaissance faciale.
Les outils RH sont considérés comme des systèmes d’IA à haut risque s’ils sont utilisés pour recruter ou sélectionner des candidats, ou pour prendre des décisions liées à l’emploi, comme la promotion ou le licenciement.
Depuis le 2 février 2025, le Règlement de l’UE sur l’IA exige que les entreprises éliminent les systèmes d’IA jugés inacceptables et forment tous les employés utilisant des systèmes d’IA sur l’utilisation conforme de l’IA selon la réglementation.
En revanche, les États-Unis n’ont pas actuellement de règlements uniformes sur l’IA au niveau fédéral. Bien que l’administration Biden ait chargé des agences gouvernementales de surveiller l’utilisation des outils d’IA et de publier des directives pour améliorer la conformité aux lois sur la non-discrimination et la vie privée, en janvier 2025, le président Trump a exprimé son soutien à la déréglementation, en émettant un décret intitulé « Éliminer les obstacles à la leadership américain dans les questions d’intelligence artificielle ». Les agences fédérales ont depuis supprimé toutes les directives précédemment émises sur l’utilisation de l’IA.
Des réglementations régissant l’utilisation de l’IA ont été introduites et adoptées au niveau des États. Cependant, la législation adoptée ne devient pas toujours contraignante. Par exemple, en février 2025, la législature de la Virginie a adopté la Loi sur les Développeurs et Déployeurs d’Intelligence Artificielle à Haut Risque, qui aurait exigé des entreprises créant ou utilisant des systèmes d’IA « à haut risque » dans l’emploi d’implémenter des mesures de protection contre la discrimination algorithmique. Cependant, le gouverneur a opposé son veto à cette loi le 24 mars 2025.
L’utilisation de l’IA peut déclencher d’autres violations légales
Les entreprises utilisant l’IA dans leurs processus de recrutement et d’embauche doivent être prudentes pour s’assurer que cette utilisation ne déclenche pas une violation d’autres lois. Par exemple :
- Biais et Discrimination : Les algorithmes utilisés par l’IA dans le recrutement peuvent perpétuer involontairement des biais, entraînant une discrimination contre les candidats en fonction de la race, du sexe, de l’âge ou d’autres caractéristiques protégées.
- Sécurité des données et Propriété : Les entreprises qui saisissent des données personnelles de candidats dans un système d’IA ont des obligations légales concernant la sécurité de ces données, ainsi que des considérations sur la propriété de ces données.
- Invasion de la vie privée : Les employeurs collectant des données via des outils d’IA doivent être vigilants quant aux lois sur la vie privée, qui peuvent exiger d’obtenir le consentement du candidat avant d’effectuer certaines recherches.
Pénalités en cas de non-conformité
Un employeur de l’UE qui enfreint les lois sur la discrimination, la sécurité des données et la vie privée risque des dommages importants. Cependant, les sommes des dommages peuvent varier considérablement entre les juridictions. Certaines nations européennes, comme l’Estonie, la Hongrie, l’Irlande, la Suède, l’Autriche et la Finlande, ont établi des limites statutaires ou coutumières sur les dommages à accorder aux employés en cas de non-conformité.
Les amendes administratives pour violations des lois sur la sécurité des données et la vie privée en vertu du RGPD peuvent atteindre jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial annuel de l’entreprise pour l’exercice précédent.
En vertu du Règlement de l’UE sur l’IA, un employeur de l’UE et un employeur non-UE utilisant les résultats d’un système d’IA dans l’UE peuvent être condamnés à une amende pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel de l’entreprise.
Considérations pour les employeurs
Pour minimiser l’exposition aux risques, les employeurs devraient envisager de prendre les mesures suivantes :
- Pour l’UE :
- Éliminer l’utilisation de l’IA jugée « inacceptable » en vertu du Règlement de l’UE sur l’IA.
- Former les employés à utiliser l’IA conformément au Règlement de l’UE, aux lois sur la sécurité des données et la vie privée, et aux politiques de l’entreprise.
- Se préparer à de nouvelles exigences qui entreront en vigueur en août 2026.
- Pour les États-Unis :
- Informer les candidats lors de l’utilisation de l’IA dans le recrutement et obtenir leur consentement écrit éclairé.
- Fournir une méthode alternative de sélection si le candidat refuse l’utilisation de l’IA.
- Utiliser des systèmes d’IA qui fournissent des paramètres clairs pouvant être vérifiés ultérieurement.
- Effectuer des tests indépendants périodiques pour détecter les biais des systèmes d’IA et des outils de recrutement.
- Inclure une supervision humaine dans le processus décisionnel.