Acte sur l’IA de l’UE – Partie 4 : L’IA au travail
Le déploiement de systèmes d’intelligence artificielle (IA) dans le milieu de travail a connu une augmentation significative ces dernières années. Une enquête récente de l’OCDE a révélé que plus de 70 % des gestionnaires interrogés ont déclaré que leurs entreprises utilisaient au moins un outil automatisé pour instruire, surveiller ou évaluer les employés. Cette tendance suscite des inquiétudes croissantes parmi les travailleurs, qui soutiennent massivement l’instauration de règles régissant l’utilisation de l’IA au travail.
Dans ce contexte, l’Acte sur l’IA de l’UE se présente comme une première régulation transversale de l’IA, reconnaissant les risques associés à l’utilisation de systèmes d’IA au travail et imposant des obligations spécifiques pour protéger les travailleurs. Cet article se concentre sur les obligations des employeurs utilisant des systèmes d’IA en milieu de travail.
Pratiques d’IA prohibées : lignes rouges dans le contexte de l’emploi
Conformément à son approche axée sur le risque, l’Acte sur l’IA interdit plusieurs pratiques d’IA jugées à risque inacceptable, dont certaines sont directement ou indirectement pertinentes pour le milieu professionnel. Parmi ces pratiques, on trouve :
- Catégorisation biométrique – totalement prohibée
- Reconnaissance des émotions – (principalement) prohibée dans les contextes d’emploi
- Notation sociale – prohibée au cas par cas
Ces interdictions visent à protéger les droits des travailleurs et à prévenir les abus liés à l’utilisation de technologies invasives.
Catégorisation biométrique
Selon l’Acte, il est interdit d’utiliser des systèmes d’IA qui catégorisent les individus en fonction de leurs données biométriques pour déduire des attributs tels que la race ou l’appartenance à un syndicat. Cette prohibition protège les travailleurs contre des conséquences négatives potentielles, notamment lors de processus de recrutement.
Reconnaissance des émotions
L’Acte prohibe également l’utilisation de systèmes d’IA qui déduisent les émotions des individus au travail, sauf dans des cas médicaux ou de sécurité. La reconnaissance des émotions, selon l’Acte, est définie par son but, excluant les systèmes qui reconnaissent des états physiques comme la douleur.
Notation sociale
La notation sociale est prohibée lorsque son utilisation entraîne un traitement défavorable disproportionné par rapport au comportement social d’un individu. Cela inclut des situations où un travailleur pourrait être renvoyé ou rétrogradé en fonction de traits de personnalité perçus, tels que l’introversion.
Protections limitées contre les systèmes à haut risque
La majorité des dispositions de l’Acte sur l’IA régissent les systèmes d’IA à haut risque, qui peuvent être déployés mais sous réserve de certaines protections. Un système d’IA est considéré comme à haut risque s’il est listé dans l’Annexe III de l’Acte, ce qui inclut des systèmes utilisés pour le recrutement, la sélection, et l’évaluation des performances.
Obligations des employeurs
Les employeurs utilisant des systèmes d’IA à haut risque doivent respecter des obligations spécifiques, notamment :
- Informer les représentants des travailleurs et les travailleurs concernés avant la mise en place d’un système d’IA.
- Assurer une certaine forme de surveillance humaine et surveiller le fonctionnement du système d’IA.
Recours et mécanismes d’application
Les recours disponibles pour les travailleurs soumis à des décisions basées sur des systèmes d’IA à haut risque comprennent le droit à une explication claire des décisions prises et le droit de déposer une plainte auprès d’une autorité nationale de surveillance du marché. Cependant, ces recours sont limités et ne garantissent pas une enquête systématique.
Conclusion
En conclusion, bien que l’Acte sur l’IA de l’UE représente un pas positif vers la régulation de l’IA au travail, ses protections pour les droits des travailleurs demeurent limitées. Les obligations des employeurs peuvent présenter des failles, et les travailleurs ont des recours restreints en cas de préjudice causé par l’IA. Il est essentiel que les organisations de défense des droits des travailleurs soient activement engagées dans le processus d’implémentation et d’application de cet acte.