L’impact de l’IA sur les droits des travailleurs en milieu professionnel

A hard hat with a digital interface

Acte sur l’IA de l’UE – Partie 4 : L’IA au travail

Le déploiement de systèmes d’intelligence artificielle (IA) dans le milieu de travail a connu une augmentation significative ces dernières années. Une enquête récente de l’OCDE a révélé que plus de 70 % des gestionnaires interrogés ont déclaré que leurs entreprises utilisaient au moins un outil automatisé pour instruire, surveiller ou évaluer les employés. Cette tendance suscite des inquiétudes croissantes parmi les travailleurs, qui soutiennent massivement l’instauration de règles régissant l’utilisation de l’IA au travail.

Dans ce contexte, l’Acte sur l’IA de l’UE se présente comme une première régulation transversale de l’IA, reconnaissant les risques associés à l’utilisation de systèmes d’IA au travail et imposant des obligations spécifiques pour protéger les travailleurs. Cet article se concentre sur les obligations des employeurs utilisant des systèmes d’IA en milieu de travail.

Pratiques d’IA prohibées : lignes rouges dans le contexte de l’emploi

Conformément à son approche axée sur le risque, l’Acte sur l’IA interdit plusieurs pratiques d’IA jugées à risque inacceptable, dont certaines sont directement ou indirectement pertinentes pour le milieu professionnel. Parmi ces pratiques, on trouve :

  • Catégorisation biométrique – totalement prohibée
  • Reconnaissance des émotions – (principalement) prohibée dans les contextes d’emploi
  • Notation sociale – prohibée au cas par cas

Ces interdictions visent à protéger les droits des travailleurs et à prévenir les abus liés à l’utilisation de technologies invasives.

Catégorisation biométrique

Selon l’Acte, il est interdit d’utiliser des systèmes d’IA qui catégorisent les individus en fonction de leurs données biométriques pour déduire des attributs tels que la race ou l’appartenance à un syndicat. Cette prohibition protège les travailleurs contre des conséquences négatives potentielles, notamment lors de processus de recrutement.

Reconnaissance des émotions

L’Acte prohibe également l’utilisation de systèmes d’IA qui déduisent les émotions des individus au travail, sauf dans des cas médicaux ou de sécurité. La reconnaissance des émotions, selon l’Acte, est définie par son but, excluant les systèmes qui reconnaissent des états physiques comme la douleur.

Notation sociale

La notation sociale est prohibée lorsque son utilisation entraîne un traitement défavorable disproportionné par rapport au comportement social d’un individu. Cela inclut des situations où un travailleur pourrait être renvoyé ou rétrogradé en fonction de traits de personnalité perçus, tels que l’introversion.

Protections limitées contre les systèmes à haut risque

La majorité des dispositions de l’Acte sur l’IA régissent les systèmes d’IA à haut risque, qui peuvent être déployés mais sous réserve de certaines protections. Un système d’IA est considéré comme à haut risque s’il est listé dans l’Annexe III de l’Acte, ce qui inclut des systèmes utilisés pour le recrutement, la sélection, et l’évaluation des performances.

Obligations des employeurs

Les employeurs utilisant des systèmes d’IA à haut risque doivent respecter des obligations spécifiques, notamment :

  • Informer les représentants des travailleurs et les travailleurs concernés avant la mise en place d’un système d’IA.
  • Assurer une certaine forme de surveillance humaine et surveiller le fonctionnement du système d’IA.

Recours et mécanismes d’application

Les recours disponibles pour les travailleurs soumis à des décisions basées sur des systèmes d’IA à haut risque comprennent le droit à une explication claire des décisions prises et le droit de déposer une plainte auprès d’une autorité nationale de surveillance du marché. Cependant, ces recours sont limités et ne garantissent pas une enquête systématique.

Conclusion

En conclusion, bien que l’Acte sur l’IA de l’UE représente un pas positif vers la régulation de l’IA au travail, ses protections pour les droits des travailleurs demeurent limitées. Les obligations des employeurs peuvent présenter des failles, et les travailleurs ont des recours restreints en cas de préjudice causé par l’IA. Il est essentiel que les organisations de défense des droits des travailleurs soient activement engagées dans le processus d’implémentation et d’application de cet acte.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Révolutionner la gouvernance de l’IA dans la gestion des risques

L'intelligence artificielle et les technologies de l'IA sont essentielles au succès de la fonction de risque. Les directeurs des risques peuvent déployer l'IA pour répondre à la conformité et naviguer...

Le Sénat met fin au moratoire sur les lois sur l’IA

Le Sénat américain a voté à une écrasante majorité de 99 contre 1 pour supprimer une disposition qui aurait bloqué les États de réglementer l'intelligence artificielle pendant la prochaine décennie...

L’écart de conformité de 83 % des entreprises pharmaceutiques face à la sécurité des données IA

L'industrie pharmaceutique est confrontée à une menace sérieuse en matière de sécurité des données liées à l'intelligence artificielle, avec seulement 17 % des entreprises ayant mis en place des...

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...