L’illusion de la reconnaissance émotionnelle : un piège réglementaire

A caution sign

Un Loophole Évident dans l’Interdiction des Technologies de Reconnaissance Émotionnelle

Le débat sur les technologies de reconnaissance émotionnelle (ERT) prend de l’ampleur, notamment avec l’adoption de l’AI Act de l’Union Européenne. Ce règlement, qui vise à réguler l’utilisation des systèmes d’IA, soulève des questions cruciales autour de l’identification et de l’inférence des émotions humaines.

Contexte et Développement des ERT

Les ERT sont des systèmes conçus pour découvrir et identifier les états émotionnels des individus par divers moyens. Alors que certains se concentrent sur des états émotionnels larges (positifs ou négatifs), d’autres analysent une gamme variée d’émotions discrètes telles que la joie, la peur et la colère.

Depuis presque une décennie, ces technologies suscitent des controverses. Des entreprises comme Amazon, Microsoft et des startups comme Emotient ont lancé des systèmes capables de détecter les émotions à travers les expressions faciales. Le marché des ERT était estimé à environ 20 milliards de dollars en 2019 et devrait dépasser 50 milliards de dollars d’ici la fin de 2024.

Importance des Émotions dans le Jugement Humain

Les émotions jouent un rôle essentiel dans le jugement des caractères et des intentions. Par exemple, dans le cadre judiciaire, connaître l’état émotionnel d’un accusé peut influencer les décisions. Comme l’a noté le juge de la Cour suprême des États-Unis, Anthony Kennedy, comprendre si un accusé éprouve des remords est crucial pour « connaître le cœur et l’esprit de l’offenseur ».

Les Limites des ERT et la Régulation par l’AI Act

Le AI Act reconnaît les limitations techniques des ERT, les classant comme des technologies à haut risque et interdisant leur utilisation dans des contextes comme le travail et l’éducation. Toutefois, il existe une distinction importante : l’identification des expressions émotionnelles est permise, alors que l’inférence des états émotionnels est prohibée. Cela signifie qu’une entreprise pourrait surveiller les employés via des systèmes d’IA sans inférer explicitement leurs émotions.

Cette réglementation soulève des questions sur l’efficacité de la protection qu’elle offre. Bien que les biais et les limitations des ERT soient reconnus, la loi ne protège pas contre l’utilisation de systèmes d’ERT fonctionnels, ce qui pourrait poser des problèmes éthiques et sociaux.

Conséquences Sociétales Potentielles

La réglementation actuelle pourrait ne pas suffire à freiner l’enthousiasme pour les ERT. Avec l’intérêt croissant pour la détection des émotions, les avancées technologiques pourraient bientôt surmonter les défis techniques. Les effets de cette commodification de la vie affective sur la société restent à explorer, notamment en ce qui concerne l’interaction humaine et l’impact sur la prise de décision.

En conclusion, bien que l’AI Act soit un pas important vers la régulation des ERT, il laisse des zones d’ombre qui nécessitent une attention continue pour garantir une utilisation éthique et responsable de ces technologies dans notre société en constante évolution.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...