La nouvelle loi sur l’IA de l’UE restreint les systèmes de reconnaissance des émotions dans les lieux de travail
La récente législation de l’Union Européenne sur l’intelligence artificielle (IA) impose des restrictions sur l’utilisation des systèmes de reconnaissance des émotions dans le milieu professionnel. Ces mesures s’appliquent notamment aux technologies qui infèrent les émotions à partir de données biométriques telles que les frappes au clavier, les postures corporelles, ou les mouvements.
Un cadre pour une application uniforme
Les nouvelles directives visent à garantir une application « cohérente, efficace et uniforme » de la loi sur l’IA à travers l’ensemble de l’Union Européenne. Bien que ces lignes directrices offrent des aperçus précieux sur l’interprétation des prohibitions par la Commission, il est important de noter qu’elles ne sont pas contraignantes. Les interprétations autorisées sont réservées à la Cour de Justice de l’Union Européenne (CJUE).
Systèmes de reconnaissance des émotions
Les restrictions s’étendent également à l’utilisation des systèmes de reconnaissance des émotions lors des périodes de recrutement et de probation. Parmi les cas où cette technologie est interdite, on trouve :
- Surveillance des équipes hybrides : L’utilisation de systèmes IA pour analyser le ton émotionnel lors d’appels vidéo hybrides est prohibée.
- Suivi des émotions des employés : Les supermarchés ne peuvent pas utiliser des caméras pour suivre les émotions de leurs employés, telles que le bonheur.
- Appels centraux : L’usage de webcams et de systèmes de reconnaissance vocale pour surveiller les émotions des employés dans les centres d’appels est également interdit.
Cependant, ces outils peuvent être utilisés à des fins de formation personnelle, tant que les données ne sont pas partagées avec les ressources humaines et n’impactent pas l’évaluation ou la promotion de l’employé.
Répondre aux risques de confidentialité liés à l’IA
Cette initiative vise à traiter les préoccupations concernant la confidentialité et le potentiel de biais dans la détection des émotions par l’IA. Les systèmes de reconnaissance des émotions, qui analyser les états émotionnels des individus, soulèvent des questions éthiques en raison de la variabilité de l’expression émotionnelle selon les cultures et les individus. L’interdiction vise à protéger la dignité des travailleurs et à prévenir les pratiques discriminatoires.
Malgré cela, des exceptions existent pour les systèmes d’IA utilisés afin de surveiller les états émotionnels à des fins médicales ou liées à la sécurité. Par exemple, l’IA pourrait être déployée dans des environnements à haut risque, tels que les usines ou les chantiers de construction, pour identifier des signes de stress ou d’épuisement, à condition que la technologie soit directement liée au bien-être et à la sécurité des employés.
Contexte législatif
La loi sur l’intelligence artificielle de l’UE a été adoptée en août 2024 et sera pleinement applicable à partir du 2 août 2026. L’objectif est d’offrir une certitude juridique à ceux qui fournissent ou déploient des systèmes d’intelligence artificielle sur le marché européen, ainsi qu’aux autorités de surveillance du marché. Les directives, bien qu’importantes, ne sont pas légalement contraignantes.