Nouvelles restrictions de l’UE sur les systèmes de reconnaissance des émotions au travail

A robot with a sad face

La nouvelle loi sur l’IA de l’UE restreint les systèmes de reconnaissance des émotions dans les lieux de travail

La récente législation de l’Union Européenne sur l’intelligence artificielle (IA) impose des restrictions sur l’utilisation des systèmes de reconnaissance des émotions dans le milieu professionnel. Ces mesures s’appliquent notamment aux technologies qui infèrent les émotions à partir de données biométriques telles que les frappes au clavier, les postures corporelles, ou les mouvements.

Un cadre pour une application uniforme

Les nouvelles directives visent à garantir une application « cohérente, efficace et uniforme » de la loi sur l’IA à travers l’ensemble de l’Union Européenne. Bien que ces lignes directrices offrent des aperçus précieux sur l’interprétation des prohibitions par la Commission, il est important de noter qu’elles ne sont pas contraignantes. Les interprétations autorisées sont réservées à la Cour de Justice de l’Union Européenne (CJUE).

Systèmes de reconnaissance des émotions

Les restrictions s’étendent également à l’utilisation des systèmes de reconnaissance des émotions lors des périodes de recrutement et de probation. Parmi les cas où cette technologie est interdite, on trouve :

  • Surveillance des équipes hybrides : L’utilisation de systèmes IA pour analyser le ton émotionnel lors d’appels vidéo hybrides est prohibée.
  • Suivi des émotions des employés : Les supermarchés ne peuvent pas utiliser des caméras pour suivre les émotions de leurs employés, telles que le bonheur.
  • Appels centraux : L’usage de webcams et de systèmes de reconnaissance vocale pour surveiller les émotions des employés dans les centres d’appels est également interdit.

Cependant, ces outils peuvent être utilisés à des fins de formation personnelle, tant que les données ne sont pas partagées avec les ressources humaines et n’impactent pas l’évaluation ou la promotion de l’employé.

Répondre aux risques de confidentialité liés à l’IA

Cette initiative vise à traiter les préoccupations concernant la confidentialité et le potentiel de biais dans la détection des émotions par l’IA. Les systèmes de reconnaissance des émotions, qui analyser les états émotionnels des individus, soulèvent des questions éthiques en raison de la variabilité de l’expression émotionnelle selon les cultures et les individus. L’interdiction vise à protéger la dignité des travailleurs et à prévenir les pratiques discriminatoires.

Malgré cela, des exceptions existent pour les systèmes d’IA utilisés afin de surveiller les états émotionnels à des fins médicales ou liées à la sécurité. Par exemple, l’IA pourrait être déployée dans des environnements à haut risque, tels que les usines ou les chantiers de construction, pour identifier des signes de stress ou d’épuisement, à condition que la technologie soit directement liée au bien-être et à la sécurité des employés.

Contexte législatif

La loi sur l’intelligence artificielle de l’UE a été adoptée en août 2024 et sera pleinement applicable à partir du 2 août 2026. L’objectif est d’offrir une certitude juridique à ceux qui fournissent ou déploient des systèmes d’intelligence artificielle sur le marché européen, ainsi qu’aux autorités de surveillance du marché. Les directives, bien qu’importantes, ne sont pas légalement contraignantes.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...