Nouvelles restrictions de l’UE sur les systèmes de reconnaissance des émotions au travail

A robot with a sad face

La nouvelle loi sur l’IA de l’UE restreint les systèmes de reconnaissance des émotions dans les lieux de travail

La récente législation de l’Union Européenne sur l’intelligence artificielle (IA) impose des restrictions sur l’utilisation des systèmes de reconnaissance des émotions dans le milieu professionnel. Ces mesures s’appliquent notamment aux technologies qui infèrent les émotions à partir de données biométriques telles que les frappes au clavier, les postures corporelles, ou les mouvements.

Un cadre pour une application uniforme

Les nouvelles directives visent à garantir une application « cohérente, efficace et uniforme » de la loi sur l’IA à travers l’ensemble de l’Union Européenne. Bien que ces lignes directrices offrent des aperçus précieux sur l’interprétation des prohibitions par la Commission, il est important de noter qu’elles ne sont pas contraignantes. Les interprétations autorisées sont réservées à la Cour de Justice de l’Union Européenne (CJUE).

Systèmes de reconnaissance des émotions

Les restrictions s’étendent également à l’utilisation des systèmes de reconnaissance des émotions lors des périodes de recrutement et de probation. Parmi les cas où cette technologie est interdite, on trouve :

  • Surveillance des équipes hybrides : L’utilisation de systèmes IA pour analyser le ton émotionnel lors d’appels vidéo hybrides est prohibée.
  • Suivi des émotions des employés : Les supermarchés ne peuvent pas utiliser des caméras pour suivre les émotions de leurs employés, telles que le bonheur.
  • Appels centraux : L’usage de webcams et de systèmes de reconnaissance vocale pour surveiller les émotions des employés dans les centres d’appels est également interdit.

Cependant, ces outils peuvent être utilisés à des fins de formation personnelle, tant que les données ne sont pas partagées avec les ressources humaines et n’impactent pas l’évaluation ou la promotion de l’employé.

Répondre aux risques de confidentialité liés à l’IA

Cette initiative vise à traiter les préoccupations concernant la confidentialité et le potentiel de biais dans la détection des émotions par l’IA. Les systèmes de reconnaissance des émotions, qui analyser les états émotionnels des individus, soulèvent des questions éthiques en raison de la variabilité de l’expression émotionnelle selon les cultures et les individus. L’interdiction vise à protéger la dignité des travailleurs et à prévenir les pratiques discriminatoires.

Malgré cela, des exceptions existent pour les systèmes d’IA utilisés afin de surveiller les états émotionnels à des fins médicales ou liées à la sécurité. Par exemple, l’IA pourrait être déployée dans des environnements à haut risque, tels que les usines ou les chantiers de construction, pour identifier des signes de stress ou d’épuisement, à condition que la technologie soit directement liée au bien-être et à la sécurité des employés.

Contexte législatif

La loi sur l’intelligence artificielle de l’UE a été adoptée en août 2024 et sera pleinement applicable à partir du 2 août 2026. L’objectif est d’offrir une certitude juridique à ceux qui fournissent ou déploient des systèmes d’intelligence artificielle sur le marché européen, ainsi qu’aux autorités de surveillance du marché. Les directives, bien qu’importantes, ne sont pas légalement contraignantes.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...