L’impact de l’IA sur le recrutement : enjeux et réglementations

A digital fingerprint

Utilisation de l’IA dans le recrutement et l’embauche – Considérations pour les entreprises de l’UE et des États-Unis

L’utilisation de l’IA transforme le paysage du recrutement à l’échelle mondiale, rendant des processus tels que le dépouillement des CV et l’engagement des candidats plus efficaces. Cela se fait par :

  • l’utilisation de recherches par mots-clés pour classer et éliminer automatiquement des candidats d’un pool de candidats avec un minimum de supervision humaine ;
  • l’exécution de tâches de recrutement via des chatbots qui interagissent avec les candidats ;
  • la formulation de tests de compétences et d’aptitudes ;
  • l’analyse de vidéos d’entretiens pour évaluer la pertinence d’un candidat pour un poste particulier.

En plus de maximiser l’efficacité, l’IA peut également être utilisée pour prendre des décisions automatisées et substantielles liées au recrutement, à l’embauche et à la performance grâce à l’utilisation de prévisions analytiques qui anticipent le succès d’un candidat dans un rôle spécifique.

Réglementation de l’utilisation de l’IA dans l’Union Européenne et aux États-Unis

L’Union Européenne a adopté une approche unifiée de la réglementation de l’IA, avec le Règlement de l’UE sur l’Intelligence Artificielle (Règlement sur l’IA de l’UE), en vigueur depuis le 1er août 2024. Ce règlement s’applique à tous les fournisseurs et déployeurs basés dans l’UE, ainsi qu’à ceux qui mettent sur le marché un système d’IA ou utilisent les résultats d’un système d’IA dans l’UE.

Le Règlement de l’UE sur l’IA classe les systèmes d’IA en différentes catégories de risque, les règles applicables devenant plus strictes à mesure que le risque pour la santé, la sécurité et les droits fondamentaux augmente. Par exemple, une réglementation minimale pour les filtres anti-spam, une réglementation limitée pour les chatbots, une réglementation élevée pour l’utilisation dans le recrutement, et une utilisation inacceptable de l’IA pour le scoring social et la reconnaissance faciale.

Les outils RH sont considérés comme des systèmes d’IA à haut risque s’ils sont utilisés pour recruter ou sélectionner des candidats, ou pour prendre des décisions liées à l’emploi, comme la promotion ou le licenciement.

Depuis le 2 février 2025, le Règlement de l’UE sur l’IA exige que les entreprises éliminent les systèmes d’IA jugés inacceptables et forment tous les employés utilisant des systèmes d’IA sur l’utilisation conforme de l’IA selon la réglementation.

En revanche, les États-Unis n’ont pas actuellement de règlements uniformes sur l’IA au niveau fédéral. Bien que l’administration Biden ait chargé des agences gouvernementales de surveiller l’utilisation des outils d’IA et de publier des directives pour améliorer la conformité aux lois sur la non-discrimination et la vie privée, en janvier 2025, le président Trump a exprimé son soutien à la déréglementation, en émettant un décret intitulé « Éliminer les obstacles à la leadership américain dans les questions d’intelligence artificielle ». Les agences fédérales ont depuis supprimé toutes les directives précédemment émises sur l’utilisation de l’IA.

Des réglementations régissant l’utilisation de l’IA ont été introduites et adoptées au niveau des États. Cependant, la législation adoptée ne devient pas toujours contraignante. Par exemple, en février 2025, la législature de la Virginie a adopté la Loi sur les Développeurs et Déployeurs d’Intelligence Artificielle à Haut Risque, qui aurait exigé des entreprises créant ou utilisant des systèmes d’IA « à haut risque » dans l’emploi d’implémenter des mesures de protection contre la discrimination algorithmique. Cependant, le gouverneur a opposé son veto à cette loi le 24 mars 2025.

L’utilisation de l’IA peut déclencher d’autres violations légales

Les entreprises utilisant l’IA dans leurs processus de recrutement et d’embauche doivent être prudentes pour s’assurer que cette utilisation ne déclenche pas une violation d’autres lois. Par exemple :

  • Biais et Discrimination : Les algorithmes utilisés par l’IA dans le recrutement peuvent perpétuer involontairement des biais, entraînant une discrimination contre les candidats en fonction de la race, du sexe, de l’âge ou d’autres caractéristiques protégées.
  • Sécurité des données et Propriété : Les entreprises qui saisissent des données personnelles de candidats dans un système d’IA ont des obligations légales concernant la sécurité de ces données, ainsi que des considérations sur la propriété de ces données.
  • Invasion de la vie privée : Les employeurs collectant des données via des outils d’IA doivent être vigilants quant aux lois sur la vie privée, qui peuvent exiger d’obtenir le consentement du candidat avant d’effectuer certaines recherches.

Pénalités en cas de non-conformité

Un employeur de l’UE qui enfreint les lois sur la discrimination, la sécurité des données et la vie privée risque des dommages importants. Cependant, les sommes des dommages peuvent varier considérablement entre les juridictions. Certaines nations européennes, comme l’Estonie, la Hongrie, l’Irlande, la Suède, l’Autriche et la Finlande, ont établi des limites statutaires ou coutumières sur les dommages à accorder aux employés en cas de non-conformité.

Les amendes administratives pour violations des lois sur la sécurité des données et la vie privée en vertu du RGPD peuvent atteindre jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial annuel de l’entreprise pour l’exercice précédent.

En vertu du Règlement de l’UE sur l’IA, un employeur de l’UE et un employeur non-UE utilisant les résultats d’un système d’IA dans l’UE peuvent être condamnés à une amende pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel de l’entreprise.

Considérations pour les employeurs

Pour minimiser l’exposition aux risques, les employeurs devraient envisager de prendre les mesures suivantes :

  • Pour l’UE :
    • Éliminer l’utilisation de l’IA jugée « inacceptable » en vertu du Règlement de l’UE sur l’IA.
    • Former les employés à utiliser l’IA conformément au Règlement de l’UE, aux lois sur la sécurité des données et la vie privée, et aux politiques de l’entreprise.
    • Se préparer à de nouvelles exigences qui entreront en vigueur en août 2026.
  • Pour les États-Unis :
    • Informer les candidats lors de l’utilisation de l’IA dans le recrutement et obtenir leur consentement écrit éclairé.
    • Fournir une méthode alternative de sélection si le candidat refuse l’utilisation de l’IA.
    • Utiliser des systèmes d’IA qui fournissent des paramètres clairs pouvant être vérifiés ultérieurement.
    • Effectuer des tests indépendants périodiques pour détecter les biais des systèmes d’IA et des outils de recrutement.
    • Inclure une supervision humaine dans le processus décisionnel.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...