L’impact de l’IA sur les droits des travailleurs en milieu professionnel

A hard hat with a digital interface

Acte sur l’IA de l’UE – Partie 4 : L’IA au travail

Le déploiement de systèmes d’intelligence artificielle (IA) dans le milieu de travail a connu une augmentation significative ces dernières années. Une enquête récente de l’OCDE a révélé que plus de 70 % des gestionnaires interrogés ont déclaré que leurs entreprises utilisaient au moins un outil automatisé pour instruire, surveiller ou évaluer les employés. Cette tendance suscite des inquiétudes croissantes parmi les travailleurs, qui soutiennent massivement l’instauration de règles régissant l’utilisation de l’IA au travail.

Dans ce contexte, l’Acte sur l’IA de l’UE se présente comme une première régulation transversale de l’IA, reconnaissant les risques associés à l’utilisation de systèmes d’IA au travail et imposant des obligations spécifiques pour protéger les travailleurs. Cet article se concentre sur les obligations des employeurs utilisant des systèmes d’IA en milieu de travail.

Pratiques d’IA prohibées : lignes rouges dans le contexte de l’emploi

Conformément à son approche axée sur le risque, l’Acte sur l’IA interdit plusieurs pratiques d’IA jugées à risque inacceptable, dont certaines sont directement ou indirectement pertinentes pour le milieu professionnel. Parmi ces pratiques, on trouve :

  • Catégorisation biométrique – totalement prohibée
  • Reconnaissance des émotions – (principalement) prohibée dans les contextes d’emploi
  • Notation sociale – prohibée au cas par cas

Ces interdictions visent à protéger les droits des travailleurs et à prévenir les abus liés à l’utilisation de technologies invasives.

Catégorisation biométrique

Selon l’Acte, il est interdit d’utiliser des systèmes d’IA qui catégorisent les individus en fonction de leurs données biométriques pour déduire des attributs tels que la race ou l’appartenance à un syndicat. Cette prohibition protège les travailleurs contre des conséquences négatives potentielles, notamment lors de processus de recrutement.

Reconnaissance des émotions

L’Acte prohibe également l’utilisation de systèmes d’IA qui déduisent les émotions des individus au travail, sauf dans des cas médicaux ou de sécurité. La reconnaissance des émotions, selon l’Acte, est définie par son but, excluant les systèmes qui reconnaissent des états physiques comme la douleur.

Notation sociale

La notation sociale est prohibée lorsque son utilisation entraîne un traitement défavorable disproportionné par rapport au comportement social d’un individu. Cela inclut des situations où un travailleur pourrait être renvoyé ou rétrogradé en fonction de traits de personnalité perçus, tels que l’introversion.

Protections limitées contre les systèmes à haut risque

La majorité des dispositions de l’Acte sur l’IA régissent les systèmes d’IA à haut risque, qui peuvent être déployés mais sous réserve de certaines protections. Un système d’IA est considéré comme à haut risque s’il est listé dans l’Annexe III de l’Acte, ce qui inclut des systèmes utilisés pour le recrutement, la sélection, et l’évaluation des performances.

Obligations des employeurs

Les employeurs utilisant des systèmes d’IA à haut risque doivent respecter des obligations spécifiques, notamment :

  • Informer les représentants des travailleurs et les travailleurs concernés avant la mise en place d’un système d’IA.
  • Assurer une certaine forme de surveillance humaine et surveiller le fonctionnement du système d’IA.

Recours et mécanismes d’application

Les recours disponibles pour les travailleurs soumis à des décisions basées sur des systèmes d’IA à haut risque comprennent le droit à une explication claire des décisions prises et le droit de déposer une plainte auprès d’une autorité nationale de surveillance du marché. Cependant, ces recours sont limités et ne garantissent pas une enquête systématique.

Conclusion

En conclusion, bien que l’Acte sur l’IA de l’UE représente un pas positif vers la régulation de l’IA au travail, ses protections pour les droits des travailleurs demeurent limitées. Les obligations des employeurs peuvent présenter des failles, et les travailleurs ont des recours restreints en cas de préjudice causé par l’IA. Il est essentiel que les organisations de défense des droits des travailleurs soient activement engagées dans le processus d’implémentation et d’application de cet acte.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...