Restrictions sur l’IA : la fin de la reconnaissance émotionnelle au travail

A robot with a crossed-out heart

La nouvelle loi sur l’IA de l’UE limite les systèmes de reconnaissance des émotions en milieu de travail

La récente loi sur l’intelligence artificielle (IA) de l’Union Européenne a introduit des restrictions significatives concernant l’utilisation des systèmes de reconnaissance des émotions dans les environnements de travail. Cette loi vise à protéger la vie privée des employés et à prévenir les pratiques discriminatoires.

Restrictions sur les systèmes de reconnaissance des émotions

Les nouvelles directives interdisent spécifiquement l’utilisation des systèmes d’IA qui inférent les émotions à partir de données biométriques, telles que les frappes au clavier, les postures corporelles ou les mouvements. Cela inclut :

  • Les systèmes d’IA surveillant le ton émotionnel dans des équipes de travail hybrides en identifiant et en inférant les émotions à partir de la voix et des images lors des appels vidéo hybrides.
  • L’utilisation de caméras par un supermarché pour suivre les émotions de ses employés, telles que le bonheur.
  • Les systèmes de reconnaissance vocale et de webcams utilisés par les centres d’appels pour suivre les émotions des employés.

Ces restrictions visent à garantir une application cohérente et uniforme de la loi sur l’IA à travers l’Union Européenne, bien que les directives elles-mêmes ne soient pas contraignantes.

Protection de la dignité des travailleurs

Les systèmes de reconnaissance des émotions soulèvent des questions éthiques, notamment en raison de la variabilité de l’expression émotionnelle à travers les cultures et les individus. Les interdictions proposées cherchent à protéger la dignité des travailleurs et à prévenir des pratiques discriminatoires lors des périodes de recrutement et de probation.

Cependant, des exceptions existent pour les systèmes d’IA utilisés dans des contextes médicaux ou de sécurité. Par exemple, dans des environnements à haut risque comme les usines ou les chantiers de construction, l’IA pourrait être utilisée pour détecter des signes de stress ou d’épuisement, à condition que la technologie soit directement liée au bien-être et à la sécurité des employés.

Considérations sur la vie privée et biais de l’IA

Cette loi vise également à répondre aux préoccupations concernant la vie privée et le potentiel de biais dans la détection des émotions par l’IA. Les systèmes de reconnaissance des émotions, qui analysent les états émotionnels des individus, doivent être utilisés avec précaution pour éviter des interprétations erronées qui pourraient nuire aux employés.

Conclusion

La loi sur l’IA de l’UE, entrée en vigueur en août 2024, sera pleinement applicable à partir du 2 août 2026. L’objectif est de fournir une certitude juridique pour ceux qui fournissent ou déploient des systèmes d’intelligence artificielle sur le marché européen. Bien que les directives ne soient pas légalement contraignantes, elles offrent une vision claire de l’interprétation des prohibitions par la Commission.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...