L’impact de l’IA sur le recrutement : enjeux et réglementations

A digital fingerprint

Utilisation de l’IA dans le recrutement et l’embauche – Considérations pour les entreprises de l’UE et des États-Unis

L’utilisation de l’IA transforme le paysage du recrutement à l’échelle mondiale, rendant des processus tels que le dépouillement des CV et l’engagement des candidats plus efficaces. Cela se fait par :

  • l’utilisation de recherches par mots-clés pour classer et éliminer automatiquement des candidats d’un pool de candidats avec un minimum de supervision humaine ;
  • l’exécution de tâches de recrutement via des chatbots qui interagissent avec les candidats ;
  • la formulation de tests de compétences et d’aptitudes ;
  • l’analyse de vidéos d’entretiens pour évaluer la pertinence d’un candidat pour un poste particulier.

En plus de maximiser l’efficacité, l’IA peut également être utilisée pour prendre des décisions automatisées et substantielles liées au recrutement, à l’embauche et à la performance grâce à l’utilisation de prévisions analytiques qui anticipent le succès d’un candidat dans un rôle spécifique.

Réglementation de l’utilisation de l’IA dans l’Union Européenne et aux États-Unis

L’Union Européenne a adopté une approche unifiée de la réglementation de l’IA, avec le Règlement de l’UE sur l’Intelligence Artificielle (Règlement sur l’IA de l’UE), en vigueur depuis le 1er août 2024. Ce règlement s’applique à tous les fournisseurs et déployeurs basés dans l’UE, ainsi qu’à ceux qui mettent sur le marché un système d’IA ou utilisent les résultats d’un système d’IA dans l’UE.

Le Règlement de l’UE sur l’IA classe les systèmes d’IA en différentes catégories de risque, les règles applicables devenant plus strictes à mesure que le risque pour la santé, la sécurité et les droits fondamentaux augmente. Par exemple, une réglementation minimale pour les filtres anti-spam, une réglementation limitée pour les chatbots, une réglementation élevée pour l’utilisation dans le recrutement, et une utilisation inacceptable de l’IA pour le scoring social et la reconnaissance faciale.

Les outils RH sont considérés comme des systèmes d’IA à haut risque s’ils sont utilisés pour recruter ou sélectionner des candidats, ou pour prendre des décisions liées à l’emploi, comme la promotion ou le licenciement.

Depuis le 2 février 2025, le Règlement de l’UE sur l’IA exige que les entreprises éliminent les systèmes d’IA jugés inacceptables et forment tous les employés utilisant des systèmes d’IA sur l’utilisation conforme de l’IA selon la réglementation.

En revanche, les États-Unis n’ont pas actuellement de règlements uniformes sur l’IA au niveau fédéral. Bien que l’administration Biden ait chargé des agences gouvernementales de surveiller l’utilisation des outils d’IA et de publier des directives pour améliorer la conformité aux lois sur la non-discrimination et la vie privée, en janvier 2025, le président Trump a exprimé son soutien à la déréglementation, en émettant un décret intitulé « Éliminer les obstacles à la leadership américain dans les questions d’intelligence artificielle ». Les agences fédérales ont depuis supprimé toutes les directives précédemment émises sur l’utilisation de l’IA.

Des réglementations régissant l’utilisation de l’IA ont été introduites et adoptées au niveau des États. Cependant, la législation adoptée ne devient pas toujours contraignante. Par exemple, en février 2025, la législature de la Virginie a adopté la Loi sur les Développeurs et Déployeurs d’Intelligence Artificielle à Haut Risque, qui aurait exigé des entreprises créant ou utilisant des systèmes d’IA « à haut risque » dans l’emploi d’implémenter des mesures de protection contre la discrimination algorithmique. Cependant, le gouverneur a opposé son veto à cette loi le 24 mars 2025.

L’utilisation de l’IA peut déclencher d’autres violations légales

Les entreprises utilisant l’IA dans leurs processus de recrutement et d’embauche doivent être prudentes pour s’assurer que cette utilisation ne déclenche pas une violation d’autres lois. Par exemple :

  • Biais et Discrimination : Les algorithmes utilisés par l’IA dans le recrutement peuvent perpétuer involontairement des biais, entraînant une discrimination contre les candidats en fonction de la race, du sexe, de l’âge ou d’autres caractéristiques protégées.
  • Sécurité des données et Propriété : Les entreprises qui saisissent des données personnelles de candidats dans un système d’IA ont des obligations légales concernant la sécurité de ces données, ainsi que des considérations sur la propriété de ces données.
  • Invasion de la vie privée : Les employeurs collectant des données via des outils d’IA doivent être vigilants quant aux lois sur la vie privée, qui peuvent exiger d’obtenir le consentement du candidat avant d’effectuer certaines recherches.

Pénalités en cas de non-conformité

Un employeur de l’UE qui enfreint les lois sur la discrimination, la sécurité des données et la vie privée risque des dommages importants. Cependant, les sommes des dommages peuvent varier considérablement entre les juridictions. Certaines nations européennes, comme l’Estonie, la Hongrie, l’Irlande, la Suède, l’Autriche et la Finlande, ont établi des limites statutaires ou coutumières sur les dommages à accorder aux employés en cas de non-conformité.

Les amendes administratives pour violations des lois sur la sécurité des données et la vie privée en vertu du RGPD peuvent atteindre jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial annuel de l’entreprise pour l’exercice précédent.

En vertu du Règlement de l’UE sur l’IA, un employeur de l’UE et un employeur non-UE utilisant les résultats d’un système d’IA dans l’UE peuvent être condamnés à une amende pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel de l’entreprise.

Considérations pour les employeurs

Pour minimiser l’exposition aux risques, les employeurs devraient envisager de prendre les mesures suivantes :

  • Pour l’UE :
    • Éliminer l’utilisation de l’IA jugée « inacceptable » en vertu du Règlement de l’UE sur l’IA.
    • Former les employés à utiliser l’IA conformément au Règlement de l’UE, aux lois sur la sécurité des données et la vie privée, et aux politiques de l’entreprise.
    • Se préparer à de nouvelles exigences qui entreront en vigueur en août 2026.
  • Pour les États-Unis :
    • Informer les candidats lors de l’utilisation de l’IA dans le recrutement et obtenir leur consentement écrit éclairé.
    • Fournir une méthode alternative de sélection si le candidat refuse l’utilisation de l’IA.
    • Utiliser des systèmes d’IA qui fournissent des paramètres clairs pouvant être vérifiés ultérieurement.
    • Effectuer des tests indépendants périodiques pour détecter les biais des systèmes d’IA et des outils de recrutement.
    • Inclure une supervision humaine dans le processus décisionnel.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...