Besoin d’action lors de l’utilisation des systèmes d’IA dans les RH
Les négociations entre le Parlement européen et le Conseil de l’UE sur un cadre réglementaire pour traiter l’intelligence artificielle ont duré plus de trois ans. De nombreuses discussions ont eu lieu concernant les défis de la réglementation et son impact sur le marché européen. L’entrée en vigueur progressive de la Loi sur l’intelligence artificielle (AI Act), résultant de ces négociations controversées, a commencé en février 2025.
La Loi sur l’intelligence artificielle repose sur une approche de sécurité des produits et de gestion des risques. L’un des principaux objectifs de cette loi est de protéger les droits fondamentaux et la sécurité, tout en favorisant l’innovation et en fournissant une certitude juridique. À cet effet, les systèmes d’IA sont classés en quatre catégories de risque différentes : Pratique d’IA prohibée, IA à haut risque, IA à usage général et IA à systèmes limités.
Les employeurs doivent maintenant agir, car les dispositions générales de la loi et ses réglementations concernant les pratiques d’IA prohibées sont entrées en vigueur le 2 février 2025, imposant des exigences sur les systèmes d’IA dans le secteur des RH.
Ce qui s’applique déjà
Réglementations sur les pratiques d’IA prohibées
L’article 5 de la Loi sur l’intelligence artificielle couvre les systèmes d’IA qui, en raison de leur fonctionnalité, présentent un risque inacceptable pour la sécurité, les droits ou les moyens de subsistance des individus et dont la mise sur le marché, la mise en service ou l’utilisation dans l’UE est donc prohibée. La loi divise ces pratiques d’IA prohibées en huit catégories de base :
- Utilisation de techniques subliminales, manipulatrices ou trompeuses pouvant déformer le comportement d’une personne ;
- Exploitation nuisible des vulnérabilités ;
- Notation sociale : évaluation basée sur le comportement social ou les caractéristiques de personnalité ;
- Prédiction des infractions criminelles : évaluation du risque individuel et prédiction des infractions criminelles ;
- Création de bases de données de reconnaissance faciale par des évaluations non ciblées ;
- Reconnaissance des émotions ;
- Catégorisation biométrique ;
- Identification biométrique à distance en temps réel.
Pour faciliter le traitement conforme à la législation lors de la classification d’une pratique d’IA comme prohibée, l’UE a publié les Directives sur les pratiques d’intelligence artificielle prohibées établies par le Règlement (UE) 2024/1689 (AI Act). Ces directives visent à accroître la clarté juridique et à fournir des informations sur l’interprétation des prohibitions de l’article 5 de la loi afin d’assurer leur application cohérente et uniforme. Elles fournissent également plusieurs exemples utiles pour illustrer de manière vivante les définitions abstraites des pratiques d’IA prohibées.
Ces réglementations sont également importantes pour les employeurs. Depuis le 2 février 2025, l’utilisation de systèmes d’IA, par exemple dans un processus de candidature, qui utilisent des caméras, des analyses vocales ou des capteurs pour capturer des signaux physiologiques, des émotions et déterminer et évaluer des informations sur les niveaux de stress, la satisfaction ou l’état de santé, est expressément prohibée.
La prohibition peut également devenir pertinente dans des cas exceptionnels lorsque des systèmes d’IA à usage général, comme ChatGPT, Gemini ou Microsoft Copilot, sont utilisés sur le lieu de travail pour des pratiques prohibées, par exemple, pour analyser les émotions des employés.
Le non-respect de cette prohibition est passible d’amendes administratives pouvant atteindre 35 millions d’euros ou, si l’auteur est une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial total pour l’exercice financier précédent, le montant le plus élevé étant retenu.
Réglementations sur la littératie en IA
Selon l’article 4 de la Loi sur l’intelligence artificielle, les fournisseurs et déployeurs de systèmes d’IA doivent garantir, dans la mesure du possible, un niveau suffisant de littératie en IA pour leur personnel et les autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA en leur nom. Cette obligation s’applique à toutes les entreprises qui développent un système d’IA, et sont donc des fournisseurs, ou qui en utilisent un sous leur propre responsabilité en tant que déployeurs. Les employeurs sont donc des déployeurs s’ils utilisent des systèmes d’IA sous leur propre responsabilité.
Par conséquent, les employeurs doivent former leurs employés à l’utilisation opérationnelle des systèmes d’IA afin qu’ils développent les compétences, les connaissances et la compréhension nécessaires pour utiliser ces systèmes de manière éclairée. En outre, la formation vise à sensibiliser aux opportunités et aux risques de l’IA et aux dommages potentiels qu’elle peut causer. Les exigences de formation dépendent des connaissances techniques, de l’expérience, de l’éducation et du contexte dans lequel les systèmes d’IA doivent être utilisés. Plus la classification de risque du système d’IA est élevée, plus la formation en expertise en IA doit être extensive.
Définition abstraite-technique comme difficulté pratique
Des difficultés pratiques dans la mise en œuvre et le respect des exigences légales de la Loi sur l’intelligence artificielle découlent en partie de la définition évasive des systèmes d’IA.
L’article 3, no. 1 de la loi définit un système d’IA comme « un système basé sur une machine qui est conçu pour fonctionner avec des niveaux d’autonomie variables et qui peut faire preuve d’adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels ». Cette définition n’est pas très illustrative.
L’UE a répondu à cela en publiant les Directives sur la définition d’un système d’intelligence artificielle établies par la Loi sur l’intelligence artificielle pour faciliter l’application effective des règles de la loi. Une explication détaillée des éléments essentiels des systèmes d’IA et l’exclusion explicite des systèmes basés exclusivement sur des règles fonctionnelles définies par des personnes physiques visent à soutenir les déployeurs dans la classification des systèmes qu’ils utilisent comme systèmes d’IA.
Aperçu
Bien que la classification comme système d’IA à haut risque selon les conditions de l’article 6, paragraphe 1 de la Loi sur l’intelligence artificielle ne s’applique pas avant le 2 août 2027, les autres dispositions de la loi entreront en vigueur le 2 août 2026, y compris les réglementations concernant les IA à haut risque dans l’emploi et la gestion des employés, conformément à l’article 6, paragraphe 2 de la loi, ainsi que l’annexe III. Des obligations spéciales s’appliqueront alors aux déployeurs de systèmes d’IA à haut risque, car ces systèmes sont généralement capables de causer des dommages considérables en cas d’erreurs ou d’abus.
Pour ces systèmes, les déployeurs, c’est-à-dire les employeurs qui utilisent de tels systèmes sous leur propre responsabilité, doivent veiller à ce que :
- le système soit utilisé conformément aux instructions du fournisseur ;
- le système soit supervisé par des personnes physiques suffisamment compétentes et formées ;
- les données d’entrée utilisées soient suffisamment pertinentes et représentatives par rapport à l’objectif prévu ;
- le système soit surveillé en continu conformément aux instructions d’utilisation ;
- les journaux générés automatiquement soient conservés pendant au moins six mois ;
- les employés et les représentants des employés concernés par un système d’IA à haut risque sur le lieu de travail soient informés à l’avance.
Dans ce contexte, les employeurs doivent remplir leurs obligations liées aux systèmes d’IA à haut risque non seulement lorsqu’ils utilisent des systèmes dont le modèle économique principal implique l’un des objectifs mentionnés dans l’annexe III, comme l’analyse et le filtrage des candidatures. L’utilisation de systèmes d’IA à usage général comme ChatGPT, Gemini ou Microsoft Copilot peut également conduire à une classification en tant qu’IA à haut risque si elle est utilisée en conséquence.
Résumé
La Loi sur l’intelligence artificielle rend les employeurs responsables de l’utilisation des systèmes d’IA sur le lieu de travail. Le personnel de direction et des ressources humaines doit donc agir. La première étape consiste à fournir aux employés qui participent à l’exploitation et à l’utilisation des systèmes d’IA pour le compte de l’employeur un niveau suffisant d’expertise dans la gestion de ces systèmes.
À l’avenir, les systèmes d’IA utilisés dans le processus de candidature ou dans l’exécution de la relation d’emploi doivent également être exploités en conformité avec les obligations pour les systèmes à haut risque.