La loi sur l’IA de l’UE du point de vue des ressources humaines
La loi sur l’IA de l’UE, entrée en vigueur le 1er août 2024, représente le premier ensemble complet de règles concernant l’intelligence artificielle au monde. Son objectif est d’établir des exigences standardisées pour le développement et l’utilisation de l’IA dans l’Union européenne. À l’instar de l’introduction du Règlement général sur la protection des données (RGPD), la loi sur l’IA aura un impact significatif sur les organisations, en particulier dans le secteur des ressources humaines.
Conditions cadres de la loi sur l’IA
La loi sur l’IA régule le lancement sur le marché, la commande et l’utilisation des systèmes d’IA dans l’UE. Elle ne propose pas un cadre juridique exhaustif pour l’IA, mais adopte une approche horizontale basée sur le risque, se concentrant principalement sur les aspects de sécurité des produits. Les systèmes d’IA présentant un risque potentiel pour les droits fondamentaux et les intérêts juridiques sensibles sont soumis à une réglementation plus stricte. Les obligations sont basées sur le niveau de risque associé à l’utilisation d’un système d’IA, quel que soit la technologie sous-jacente, avec des systèmes classés en cinq catégories de risque :
- risque inacceptable (IA prohibée)
- risque élevé (IA à haut risque)
- risque systémique (IA à usage général avec des risques systémiques)
- risque limité (IA spécifique et générale)
- risque faible (toutes les autres IA).
Impact de la loi sur l’IA dans le domaine des ressources humaines
Les systèmes d’IA sont déjà courants dans le secteur des ressources humaines, notamment dans le recrutement. Les systèmes existants doivent être classés selon la catégorie de risque pertinente, et l’employeur doit se préparer à répondre aux obligations liées à leur désignation en tant que fournisseur ou utilisateur sous la loi sur l’IA.
IA à risque inacceptable (Article 5 de la loi sur l’IA) – systèmes de reconnaissance des émotions au travail
La loi sur l’IA interdit les systèmes de reconnaissance des émotions basés sur l’IA au travail, sauf s’ils sont installés pour des raisons médicales ou de sécurité. Par exemple, un système d’IA utilisé pour reconnaître la fatigue ou des problèmes de concentration afin de prévenir les accidents est exempté. D’autres systèmes d’IA qui évaluent les émotions des personnes pour réagir en conséquence, comme le soutien d’un bon flux de travail, seront classés comme présentant un risque inacceptable et seront interdits à partir du 2 février 2025.
IA à haut risque dans le secteur des ressources humaines (Article 6(2) en liaison avec l’Annexe III)
De nombreux systèmes d’IA utilisés dans le secteur de l’emploi seront considérés comme à haut risque, ce qui signifie que les organisations doivent se familiariser avec les obligations qui en découlent. Cela inclut les systèmes d’IA utilisés pour :
- le recrutement ou la sélection de personnes (ex. : diffusion d’annonces ciblées, filtrage des candidatures, évaluation des candidats)
- les décisions concernant les conditions ou la rupture des relations d’emploi ou des promotions
- l’attribution de tâches en fonction du comportement individuel ou des caractéristiques personnelles
- l’observation et l’évaluation des performances et du comportement des personnes.
Exigences pour les fournisseurs et utilisateurs d’IA à haut risque
Les obligations les plus contraignantes sous la loi sur l’IA s’appliquent aux fournisseurs de systèmes d’IA. Cependant, la loi tient également compte des utilisateurs, c’est-à-dire les utilisateurs de systèmes d’IA, sauf si le système est utilisé à titre privé. Les employeurs, en tant qu’utilisateurs dans le secteur des ressources humaines, doivent respecter un large éventail d’exigences, telles que :
- prendre des mesures techniques et organisationnelles pour garantir que le système d’IA est utilisé conformément aux instructions d’utilisation
- superviser le système par des personnes compétentes et formées.
Aperçus pratiques
- Le développement de la littératie en IA et la supervision humaine au sein de l’organisation sont essentiels pour répondre à ces exigences.
- Il est crucial d’assurer la qualité des données d’entrée pour éviter les biais, en particulier dans le domaine des ressources humaines.
- Les droits de co-décision existants doivent être respectés, en particulier les droits des représentants des employés.
Exemption pour les systèmes d’IA à haut risque
L’Article 6(3) de la loi sur l’IA prévoit des exemptions pour certains systèmes initialement classés à haut risque. Un système d’IA exempté ne doit pas poser de risque significatif pour les droits fondamentaux.
IA à risque limité ou faible
Les organisations utilisant des systèmes d’IA à risque limité ou faible doivent toujours se conformer à des obligations, bien que moins strictes. Cela inclut la nécessité de garantir que le personnel travaillant avec l’IA a une compréhension suffisante de celle-ci.
IA et protection des données
Lors de l’utilisation de l’IA, les exigences du RGPD doivent également être prises en compte. Cela inclut les droits des personnes concernées et la nécessité de justifier le traitement des données personnelles.
Conclusion
La loi sur l’IA représente un défi majeur pour les utilisateurs et fournisseurs dans le secteur des ressources humaines, en particulier en ce qui concerne les systèmes d’IA à haut risque et le traitement des données personnelles. Une coopération étroite entre les départements RH, juridiques et de protection des données sera essentielle pour se préparer et satisfaire aux exigences de la loi sur l’IA.