L’impact de l’IA sur les ressources humaines : agir maintenant

A compass guiding the direction of responsible AI use in human resources.

Besoin d’action lors de l’utilisation des systèmes d’IA dans les RH

Les négociations entre le Parlement européen et le Conseil de l’UE sur un cadre réglementaire pour traiter l’intelligence artificielle ont duré plus de trois ans. De nombreuses discussions ont eu lieu concernant les défis de la réglementation et son impact sur le marché européen. L’entrée en vigueur progressive de la Loi sur l’intelligence artificielle (AI Act), résultant de ces négociations controversées, a commencé en février 2025.

La Loi sur l’intelligence artificielle repose sur une approche de sécurité des produits et de gestion des risques. L’un des principaux objectifs de cette loi est de protéger les droits fondamentaux et la sécurité, tout en favorisant l’innovation et en fournissant une certitude juridique. À cet effet, les systèmes d’IA sont classés en quatre catégories de risque différentes : Pratique d’IA prohibée, IA à haut risque, IA à usage général et IA à systèmes limités.

Les employeurs doivent maintenant agir, car les dispositions générales de la loi et ses réglementations concernant les pratiques d’IA prohibées sont entrées en vigueur le 2 février 2025, imposant des exigences sur les systèmes d’IA dans le secteur des RH.

Ce qui s’applique déjà

Réglementations sur les pratiques d’IA prohibées

L’article 5 de la Loi sur l’intelligence artificielle couvre les systèmes d’IA qui, en raison de leur fonctionnalité, présentent un risque inacceptable pour la sécurité, les droits ou les moyens de subsistance des individus et dont la mise sur le marché, la mise en service ou l’utilisation dans l’UE est donc prohibée. La loi divise ces pratiques d’IA prohibées en huit catégories de base :

  1. Utilisation de techniques subliminales, manipulatrices ou trompeuses pouvant déformer le comportement d’une personne ;
  2. Exploitation nuisible des vulnérabilités ;
  3. Notation sociale : évaluation basée sur le comportement social ou les caractéristiques de personnalité ;
  4. Prédiction des infractions criminelles : évaluation du risque individuel et prédiction des infractions criminelles ;
  5. Création de bases de données de reconnaissance faciale par des évaluations non ciblées ;
  6. Reconnaissance des émotions ;
  7. Catégorisation biométrique ;
  8. Identification biométrique à distance en temps réel.

Pour faciliter le traitement conforme à la législation lors de la classification d’une pratique d’IA comme prohibée, l’UE a publié les Directives sur les pratiques d’intelligence artificielle prohibées établies par le Règlement (UE) 2024/1689 (AI Act). Ces directives visent à accroître la clarté juridique et à fournir des informations sur l’interprétation des prohibitions de l’article 5 de la loi afin d’assurer leur application cohérente et uniforme. Elles fournissent également plusieurs exemples utiles pour illustrer de manière vivante les définitions abstraites des pratiques d’IA prohibées.

Ces réglementations sont également importantes pour les employeurs. Depuis le 2 février 2025, l’utilisation de systèmes d’IA, par exemple dans un processus de candidature, qui utilisent des caméras, des analyses vocales ou des capteurs pour capturer des signaux physiologiques, des émotions et déterminer et évaluer des informations sur les niveaux de stress, la satisfaction ou l’état de santé, est expressément prohibée.

La prohibition peut également devenir pertinente dans des cas exceptionnels lorsque des systèmes d’IA à usage général, comme ChatGPT, Gemini ou Microsoft Copilot, sont utilisés sur le lieu de travail pour des pratiques prohibées, par exemple, pour analyser les émotions des employés.

Le non-respect de cette prohibition est passible d’amendes administratives pouvant atteindre 35 millions d’euros ou, si l’auteur est une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial total pour l’exercice financier précédent, le montant le plus élevé étant retenu.

Réglementations sur la littératie en IA

Selon l’article 4 de la Loi sur l’intelligence artificielle, les fournisseurs et déployeurs de systèmes d’IA doivent garantir, dans la mesure du possible, un niveau suffisant de littératie en IA pour leur personnel et les autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA en leur nom. Cette obligation s’applique à toutes les entreprises qui développent un système d’IA, et sont donc des fournisseurs, ou qui en utilisent un sous leur propre responsabilité en tant que déployeurs. Les employeurs sont donc des déployeurs s’ils utilisent des systèmes d’IA sous leur propre responsabilité.

Par conséquent, les employeurs doivent former leurs employés à l’utilisation opérationnelle des systèmes d’IA afin qu’ils développent les compétences, les connaissances et la compréhension nécessaires pour utiliser ces systèmes de manière éclairée. En outre, la formation vise à sensibiliser aux opportunités et aux risques de l’IA et aux dommages potentiels qu’elle peut causer. Les exigences de formation dépendent des connaissances techniques, de l’expérience, de l’éducation et du contexte dans lequel les systèmes d’IA doivent être utilisés. Plus la classification de risque du système d’IA est élevée, plus la formation en expertise en IA doit être extensive.

Définition abstraite-technique comme difficulté pratique

Des difficultés pratiques dans la mise en œuvre et le respect des exigences légales de la Loi sur l’intelligence artificielle découlent en partie de la définition évasive des systèmes d’IA.

L’article 3, no. 1 de la loi définit un système d’IA comme « un système basé sur une machine qui est conçu pour fonctionner avec des niveaux d’autonomie variables et qui peut faire preuve d’adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels ». Cette définition n’est pas très illustrative.

L’UE a répondu à cela en publiant les Directives sur la définition d’un système d’intelligence artificielle établies par la Loi sur l’intelligence artificielle pour faciliter l’application effective des règles de la loi. Une explication détaillée des éléments essentiels des systèmes d’IA et l’exclusion explicite des systèmes basés exclusivement sur des règles fonctionnelles définies par des personnes physiques visent à soutenir les déployeurs dans la classification des systèmes qu’ils utilisent comme systèmes d’IA.

Aperçu

Bien que la classification comme système d’IA à haut risque selon les conditions de l’article 6, paragraphe 1 de la Loi sur l’intelligence artificielle ne s’applique pas avant le 2 août 2027, les autres dispositions de la loi entreront en vigueur le 2 août 2026, y compris les réglementations concernant les IA à haut risque dans l’emploi et la gestion des employés, conformément à l’article 6, paragraphe 2 de la loi, ainsi que l’annexe III. Des obligations spéciales s’appliqueront alors aux déployeurs de systèmes d’IA à haut risque, car ces systèmes sont généralement capables de causer des dommages considérables en cas d’erreurs ou d’abus.

Pour ces systèmes, les déployeurs, c’est-à-dire les employeurs qui utilisent de tels systèmes sous leur propre responsabilité, doivent veiller à ce que :

  • le système soit utilisé conformément aux instructions du fournisseur ;
  • le système soit supervisé par des personnes physiques suffisamment compétentes et formées ;
  • les données d’entrée utilisées soient suffisamment pertinentes et représentatives par rapport à l’objectif prévu ;
  • le système soit surveillé en continu conformément aux instructions d’utilisation ;
  • les journaux générés automatiquement soient conservés pendant au moins six mois ;
  • les employés et les représentants des employés concernés par un système d’IA à haut risque sur le lieu de travail soient informés à l’avance.

Dans ce contexte, les employeurs doivent remplir leurs obligations liées aux systèmes d’IA à haut risque non seulement lorsqu’ils utilisent des systèmes dont le modèle économique principal implique l’un des objectifs mentionnés dans l’annexe III, comme l’analyse et le filtrage des candidatures. L’utilisation de systèmes d’IA à usage général comme ChatGPT, Gemini ou Microsoft Copilot peut également conduire à une classification en tant qu’IA à haut risque si elle est utilisée en conséquence.

Résumé

La Loi sur l’intelligence artificielle rend les employeurs responsables de l’utilisation des systèmes d’IA sur le lieu de travail. Le personnel de direction et des ressources humaines doit donc agir. La première étape consiste à fournir aux employés qui participent à l’exploitation et à l’utilisation des systèmes d’IA pour le compte de l’employeur un niveau suffisant d’expertise dans la gestion de ces systèmes.

À l’avenir, les systèmes d’IA utilisés dans le processus de candidature ou dans l’exécution de la relation d’emploi doivent également être exploités en conformité avec les obligations pour les systèmes à haut risque.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...