L’impact de l’IA sur le recrutement : enjeux et réglementations

A digital fingerprint

Utilisation de l’IA dans le recrutement et l’embauche – Considérations pour les entreprises de l’UE et des États-Unis

L’utilisation de l’IA transforme le paysage du recrutement à l’échelle mondiale, rendant des processus tels que le dépouillement des CV et l’engagement des candidats plus efficaces. Cela se fait par :

  • l’utilisation de recherches par mots-clés pour classer et éliminer automatiquement des candidats d’un pool de candidats avec un minimum de supervision humaine ;
  • l’exécution de tâches de recrutement via des chatbots qui interagissent avec les candidats ;
  • la formulation de tests de compétences et d’aptitudes ;
  • l’analyse de vidéos d’entretiens pour évaluer la pertinence d’un candidat pour un poste particulier.

En plus de maximiser l’efficacité, l’IA peut également être utilisée pour prendre des décisions automatisées et substantielles liées au recrutement, à l’embauche et à la performance grâce à l’utilisation de prévisions analytiques qui anticipent le succès d’un candidat dans un rôle spécifique.

Réglementation de l’utilisation de l’IA dans l’Union Européenne et aux États-Unis

L’Union Européenne a adopté une approche unifiée de la réglementation de l’IA, avec le Règlement de l’UE sur l’Intelligence Artificielle (Règlement sur l’IA de l’UE), en vigueur depuis le 1er août 2024. Ce règlement s’applique à tous les fournisseurs et déployeurs basés dans l’UE, ainsi qu’à ceux qui mettent sur le marché un système d’IA ou utilisent les résultats d’un système d’IA dans l’UE.

Le Règlement de l’UE sur l’IA classe les systèmes d’IA en différentes catégories de risque, les règles applicables devenant plus strictes à mesure que le risque pour la santé, la sécurité et les droits fondamentaux augmente. Par exemple, une réglementation minimale pour les filtres anti-spam, une réglementation limitée pour les chatbots, une réglementation élevée pour l’utilisation dans le recrutement, et une utilisation inacceptable de l’IA pour le scoring social et la reconnaissance faciale.

Les outils RH sont considérés comme des systèmes d’IA à haut risque s’ils sont utilisés pour recruter ou sélectionner des candidats, ou pour prendre des décisions liées à l’emploi, comme la promotion ou le licenciement.

Depuis le 2 février 2025, le Règlement de l’UE sur l’IA exige que les entreprises éliminent les systèmes d’IA jugés inacceptables et forment tous les employés utilisant des systèmes d’IA sur l’utilisation conforme de l’IA selon la réglementation.

En revanche, les États-Unis n’ont pas actuellement de règlements uniformes sur l’IA au niveau fédéral. Bien que l’administration Biden ait chargé des agences gouvernementales de surveiller l’utilisation des outils d’IA et de publier des directives pour améliorer la conformité aux lois sur la non-discrimination et la vie privée, en janvier 2025, le président Trump a exprimé son soutien à la déréglementation, en émettant un décret intitulé « Éliminer les obstacles à la leadership américain dans les questions d’intelligence artificielle ». Les agences fédérales ont depuis supprimé toutes les directives précédemment émises sur l’utilisation de l’IA.

Des réglementations régissant l’utilisation de l’IA ont été introduites et adoptées au niveau des États. Cependant, la législation adoptée ne devient pas toujours contraignante. Par exemple, en février 2025, la législature de la Virginie a adopté la Loi sur les Développeurs et Déployeurs d’Intelligence Artificielle à Haut Risque, qui aurait exigé des entreprises créant ou utilisant des systèmes d’IA « à haut risque » dans l’emploi d’implémenter des mesures de protection contre la discrimination algorithmique. Cependant, le gouverneur a opposé son veto à cette loi le 24 mars 2025.

L’utilisation de l’IA peut déclencher d’autres violations légales

Les entreprises utilisant l’IA dans leurs processus de recrutement et d’embauche doivent être prudentes pour s’assurer que cette utilisation ne déclenche pas une violation d’autres lois. Par exemple :

  • Biais et Discrimination : Les algorithmes utilisés par l’IA dans le recrutement peuvent perpétuer involontairement des biais, entraînant une discrimination contre les candidats en fonction de la race, du sexe, de l’âge ou d’autres caractéristiques protégées.
  • Sécurité des données et Propriété : Les entreprises qui saisissent des données personnelles de candidats dans un système d’IA ont des obligations légales concernant la sécurité de ces données, ainsi que des considérations sur la propriété de ces données.
  • Invasion de la vie privée : Les employeurs collectant des données via des outils d’IA doivent être vigilants quant aux lois sur la vie privée, qui peuvent exiger d’obtenir le consentement du candidat avant d’effectuer certaines recherches.

Pénalités en cas de non-conformité

Un employeur de l’UE qui enfreint les lois sur la discrimination, la sécurité des données et la vie privée risque des dommages importants. Cependant, les sommes des dommages peuvent varier considérablement entre les juridictions. Certaines nations européennes, comme l’Estonie, la Hongrie, l’Irlande, la Suède, l’Autriche et la Finlande, ont établi des limites statutaires ou coutumières sur les dommages à accorder aux employés en cas de non-conformité.

Les amendes administratives pour violations des lois sur la sécurité des données et la vie privée en vertu du RGPD peuvent atteindre jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial annuel de l’entreprise pour l’exercice précédent.

En vertu du Règlement de l’UE sur l’IA, un employeur de l’UE et un employeur non-UE utilisant les résultats d’un système d’IA dans l’UE peuvent être condamnés à une amende pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel de l’entreprise.

Considérations pour les employeurs

Pour minimiser l’exposition aux risques, les employeurs devraient envisager de prendre les mesures suivantes :

  • Pour l’UE :
    • Éliminer l’utilisation de l’IA jugée « inacceptable » en vertu du Règlement de l’UE sur l’IA.
    • Former les employés à utiliser l’IA conformément au Règlement de l’UE, aux lois sur la sécurité des données et la vie privée, et aux politiques de l’entreprise.
    • Se préparer à de nouvelles exigences qui entreront en vigueur en août 2026.
  • Pour les États-Unis :
    • Informer les candidats lors de l’utilisation de l’IA dans le recrutement et obtenir leur consentement écrit éclairé.
    • Fournir une méthode alternative de sélection si le candidat refuse l’utilisation de l’IA.
    • Utiliser des systèmes d’IA qui fournissent des paramètres clairs pouvant être vérifiés ultérieurement.
    • Effectuer des tests indépendants périodiques pour détecter les biais des systèmes d’IA et des outils de recrutement.
    • Inclure une supervision humaine dans le processus décisionnel.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...