Les législateurs des États cherchent à réglementer l’utilisation de l’IA par les employeurs pour les décisions salariales
Alors que les employeurs continuent de trouver de nouvelles façons d’utiliser des outils et des logiciels d’intelligence artificielle (IA) pour soutenir leurs opérations, les législateurs des États ont pris note. En particulier, ils examinent de plus en plus l’utilisation de l’IA et des outils de décision automatisés par les employeurs pour établir ou influencer la rémunération des employés, dans le but déclaré de réduire les impacts potentiellement discriminatoires résultant de la tarification algorithmique des salaires et d’augmenter la transparence pour les employés et les candidats concernant cette technologie.
Activité législative récente des États
Plusieurs États ont introduit des projets de loi en 2025 cherchant à placer des paramètres sur les décisions de rémunération pilotées par l’IA. Les législateurs de New York et du Maryland ont poursuivi cette tendance en janvier 2026, en introduisant des projets de loi contenant des restrictions similaires.
Bien que ces lois proposées ne soient pas toutes identiques, elles partagent des caractéristiques communes. Tout d’abord, elles définissent de manière similaire les « systèmes de décision automatisés » pour inclure des systèmes, logiciels ou processus — y compris ceux reposant sur des techniques d’apprentissage automatique ou d’IA — utilisés pour aider ou remplacer la prise de décision humaine. Dans le contexte de l’emploi, ces définitions englobent des outils et systèmes automatisés de ressources humaines qui utilisent des règles prédéfinies pour traiter des données via des algorithmes et assister l’exécution des fonctions RH.
De plus, la majorité de ces lois proposent des orientations sur les comportements qui ne constitueraient pas une utilisation illégale de la tarification algorithmique des salaires. Ces exclusions incluent, par exemple, lorsque les employeurs :
- offrent des salaires individualisés basés sur des données relatives aux services fournis par les travailleurs ;
- divulguent en termes simples leur utilisation de systèmes de décision automatisés, y compris les données considérées par ces systèmes et la manière dont elles sont prises en compte, aux employés et candidats concernés ;
- développent et mettent en œuvre des procédures garantissant l’exactitude des données utilisées par ces systèmes dans l’établissement des salaires.
Risques juridiques associés aux décisions de rémunération pilotées par l’IA
Les législateurs plaidant en faveur de ces lois ont souligné que l’utilisation non réglementée de l’IA par les employeurs dans les décisions salariales peut entraîner des résultats discriminatoires. En effet, ces décisions peuvent être couvertes et actionnables en vertu de diverses lois sur l’emploi.
La nature même des systèmes de décision automatisés crée des risques juridiques uniques pour les employeurs, notamment en raison du manque de transparence quant à la manière dont ces outils parviennent à leurs conclusions ou recommandations. Cela rend les employeurs vulnérables à des contestations juridiques concernant les décisions rendues par des outils ou logiciels d’IA.
Considérations pour les employeurs
Pour l’instant, les employeurs doivent s’assurer de leur conformité avec les lois fédérales et étatiques applicables qui ont été adoptées ou entreront en vigueur en 2026. Cela inclut, au minimum, l’identification de chaque outil d’IA utilisé dans la prise de décision en matière d’emploi et l’évaluation des réglementations applicables.
Les employeurs devraient également établir et mettre en œuvre une politique complète sur l’IA qui décrit les procédures internes pour son utilisation, fournit les avis requis aux employés et candidats, et impose un contrôle humain sur les recommandations générées par l’IA.
À l’avenir, les employeurs doivent surveiller activement les développements législatifs fédéraux, étatiques et locaux visant à réguler l’usage de l’IA dans les décisions relatives à la rémunération et aux conditions d’emploi. À mesure que les États établissent rapidement des limites sur le rôle de l’IA dans la prise de décision au travail, ceux qui auditeront proactivement leurs pratiques et prioritiseront une implication humaine transparente seront mieux préparés à minimiser les risques juridiques et à s’adapter aux exigences réglementaires en évolution.