Réglementation de l’utilisation de l’IA par les employeurs pour les décisions salariales

A robotic arm holding a paycheck with a digital circuit board overlay

Les législateurs des États cherchent à réglementer l’utilisation de l’IA par les employeurs pour les décisions salariales

Alors que les employeurs continuent de trouver de nouvelles façons d’utiliser des outils et des logiciels d’intelligence artificielle (IA) pour soutenir leurs opérations, les législateurs des États ont pris note. En particulier, ils examinent de plus en plus l’utilisation de l’IA et des outils de décision automatisés par les employeurs pour établir ou influencer la rémunération des employés, dans le but déclaré de réduire les impacts potentiellement discriminatoires résultant de la tarification algorithmique des salaires et d’augmenter la transparence pour les employés et les candidats concernant cette technologie.

Activité législative récente des États

Plusieurs États ont introduit des projets de loi en 2025 cherchant à placer des paramètres sur les décisions de rémunération pilotées par l’IA. Les législateurs de New York et du Maryland ont poursuivi cette tendance en janvier 2026, en introduisant des projets de loi contenant des restrictions similaires.

Bien que ces lois proposées ne soient pas toutes identiques, elles partagent des caractéristiques communes. Tout d’abord, elles définissent de manière similaire les « systèmes de décision automatisés » pour inclure des systèmes, logiciels ou processus — y compris ceux reposant sur des techniques d’apprentissage automatique ou d’IA — utilisés pour aider ou remplacer la prise de décision humaine. Dans le contexte de l’emploi, ces définitions englobent des outils et systèmes automatisés de ressources humaines qui utilisent des règles prédéfinies pour traiter des données via des algorithmes et assister l’exécution des fonctions RH.

De plus, la majorité de ces lois proposent des orientations sur les comportements qui ne constitueraient pas une utilisation illégale de la tarification algorithmique des salaires. Ces exclusions incluent, par exemple, lorsque les employeurs :

  • offrent des salaires individualisés basés sur des données relatives aux services fournis par les travailleurs ;
  • divulguent en termes simples leur utilisation de systèmes de décision automatisés, y compris les données considérées par ces systèmes et la manière dont elles sont prises en compte, aux employés et candidats concernés ;
  • développent et mettent en œuvre des procédures garantissant l’exactitude des données utilisées par ces systèmes dans l’établissement des salaires.

Risques juridiques associés aux décisions de rémunération pilotées par l’IA

Les législateurs plaidant en faveur de ces lois ont souligné que l’utilisation non réglementée de l’IA par les employeurs dans les décisions salariales peut entraîner des résultats discriminatoires. En effet, ces décisions peuvent être couvertes et actionnables en vertu de diverses lois sur l’emploi.

La nature même des systèmes de décision automatisés crée des risques juridiques uniques pour les employeurs, notamment en raison du manque de transparence quant à la manière dont ces outils parviennent à leurs conclusions ou recommandations. Cela rend les employeurs vulnérables à des contestations juridiques concernant les décisions rendues par des outils ou logiciels d’IA.

Considérations pour les employeurs

Pour l’instant, les employeurs doivent s’assurer de leur conformité avec les lois fédérales et étatiques applicables qui ont été adoptées ou entreront en vigueur en 2026. Cela inclut, au minimum, l’identification de chaque outil d’IA utilisé dans la prise de décision en matière d’emploi et l’évaluation des réglementations applicables.

Les employeurs devraient également établir et mettre en œuvre une politique complète sur l’IA qui décrit les procédures internes pour son utilisation, fournit les avis requis aux employés et candidats, et impose un contrôle humain sur les recommandations générées par l’IA.

À l’avenir, les employeurs doivent surveiller activement les développements législatifs fédéraux, étatiques et locaux visant à réguler l’usage de l’IA dans les décisions relatives à la rémunération et aux conditions d’emploi. À mesure que les États établissent rapidement des limites sur le rôle de l’IA dans la prise de décision au travail, ceux qui auditeront proactivement leurs pratiques et prioritiseront une implication humaine transparente seront mieux préparés à minimiser les risques juridiques et à s’adapter aux exigences réglementaires en évolution.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...