Règlementation des IA au travail : enjeux, cadre légal des États et perspectives fédérales

A shattered digital hourglass with binary code flowing through it

Quelles règles régissent le patron algorithmique ? Lois sur l’emploi de l’IA au niveau des États, menaces de préemption fédérale et la vague de litiges à venir

Plusieurs lois sur l’emploi de l’IA au niveau des États — en Illinois, au Texas et au Colorado — viennent d’entrer en vigueur ou entreront en vigueur cette année, imposant des audits de biais, des exigences de notification, des droits d’appel et des évaluations d’impact aux employeurs utilisant l’IA dans les décisions liées aux ressources humaines. Parallèlement, l’Ordonnance Exécutive 14365 de la Maison Blanche, émise en décembre 2025, a dirigé un nouveau Groupe de Travail sur les Litiges en IA fédéraux pour contester les lois étatiques sur l’IA jugées « oppressives » et incompatibles avec un cadre politique national d’IA minimalement contraignant. Cela entraîne une collision constitutionnelle qui façonnera directement la manière dont les employeurs conçoivent et déploient des outils de recrutement algorithmique.

Le nouveau patchwork : trois États, trois approches

Le cadre émergent au niveau des États régissant l’IA dans les décisions d’emploi est loin d’être uniforme.

La Loi sur l’Intelligence Artificielle du Colorado (SB 24-205) crée des devoirs tant pour les « développeurs » que pour les « déployeurs » de systèmes d’IA à haut risque utilisés pour les décisions d’emploi. Avec une mise en œuvre repoussée au 30 juin 2026, la loi exige des programmes de gestion des risques, des évaluations d’impact annuelles, une notification aux travailleurs pour les décisions d’emploi conséquentes, et une notification aux procureurs généraux dans les 90 jours suivant la découverte de discrimination algorithmique.

La loi HB 3773 de l’Illinois modifie la Loi sur les Droits Humains de l’Illinois pour couvrir expressément la discrimination médiée par l’IA à partir du 1er janvier 2026. Les employeurs ne peuvent pas utiliser l’IA qui a « l’effet » de soumettre les employés ou les candidats à la discrimination tout au long du cycle de vie de l’emploi — du recrutement à la résiliation.

La Loi sur la Gouvernance Responsable de l’Intelligence Artificielle du Texas (TRAIGA), également effective le 1er janvier 2026, adopte la position la plus restrictive. Elle interdit les systèmes d’IA développés ou déployés avec l’intention de discriminer illégalement, tout en précisant que l’impact disparate à lui seul n’établit pas une violation. L’application de la loi repose exclusivement sur le Procureur Général du Texas, sans droit d’action privé et avec une période de correction de 60 jours.

La contre-attaque fédérale : Ordonnance Exécutive 14365 et le Groupe de Travail sur les Litiges en IA

Dans ce patchwork réglementaire, la Maison Blanche a lancé un défi constitutionnel. L’Ordonnance Exécutive 14365 dirige le Procureur Général à établir un Groupe de Travail sur les Litiges en IA avec la « responsabilité exclusive » de contester les lois étatiques sur l’IA jugées incompatibles avec la politique fédérale — y compris sur des bases de préemption et de clause de commerce dormant.

Les théories juridiques pour la vague à venir de litiges fédéraux contre étatiques incluent : la préemption d’obstacle et de conflit, où les lois des États entravent les objectifs de compétitivité fédéraux, des défis de la clause de commerce dormant contre des lois ayant une portée extraterritoriale, et des arguments du Premier Amendement cadrant les exigences de divulgation comme un discours contraint. Cependant, les opposants ont également présenté des défenses convaincantes de la gouvernance étatique de l’IA.

Il est important de noter que la loi fédérale sur la discrimination en matière d’emploi régit déjà les outils de recrutement utilisant l’IA. Les directives de l’agence abordent la discrimination algorithmique en vertu du Titre VII, de l’ADA et de l’ADEA. L’accent mis sur l’impact disparate, les aménagements raisonnables pour les candidats handicapés et la transparence dans les décisions défavorables établit une base de conformité fédérale qui s’applique indépendamment de la préemption des États. Le conflit entre le fédéral et l’État concerne des exigences spécifiques supplémentaires des États et non si les outils de recrutement utilisant l’IA doivent se conformer à la loi fédérale sur les droits civils.

Pris dans le feu croisé : que doivent faire les employeurs maintenant ?

Cette collision fédérale-étatique crée un véritable dilemme de conformité. Les employeurs qui investissent dans une infrastructure de gouvernance à la manière du Colorado pourraient voir ces obligations suspendues ou réduites par des litiges fédéraux. Mais les employeurs qui retardent leur conformité risquent l’exécution par le Procureur Général de l’État et des poursuites pour discrimination qui pourraient utiliser ces lois comme des normes de soins de facto — même lorsque la loi sur l’IA elle-même ne comporte pas de droit d’action privé.

Le chemin prudent consiste à établir un cadre de conformité « au plus haut commun dénominateur ». Cela inclut la mise en place d’une base de gouvernance de l’IA couvrant des tests de biais indépendants, la documentation explicative et un examen humain pour les décisions défavorables. Ce cadre devrait être conçu pour répondre aux normes du Colorado et de l’Illinois, tout en s’adaptant aux régimes plus restreints comme celui du Texas et en tenant compte des évaluations d’impact et des rapports spécifiques à chaque État.

Il est tout aussi crucial de revoir vos contrats avec les fournisseurs d’IA dès maintenant. Les fournisseurs pourraient faire face à des obligations directes en tant que « développeurs » en vertu du cadre du Colorado, et vos contrats devraient répartir la responsabilité pour le soutien aux tests de biais, l’accès aux données pour la conformité et le reporting d’incidents.

Enfin, surveillez de près les priorités du Groupe de Travail du DOJ et l’évaluation de mars 2026 du Commerce. Élaborez des plans de scénarios pour répondre si certaines obligations étatiques sont invalidées tandis que d’autres demeurent en vigueur. Les questions constitutionnelles sont fascinantes ; les enjeux pratiques pour votre prochain cycle de recrutement sont immédiats.

Points clés à retenir :

  • 1. La conformité ne peut pas attendre de clarté constitutionnelle. Les lois étatiques sur l’emploi de l’IA sont applicables dès maintenant, et les employeurs qui retardent leurs investissements en gouvernance s’exposent à des poursuites et à des litiges pour discrimination, indépendamment des défis fédéraux en cours.
  • 2. Le patchwork exige une approche « au plus haut commun dénominateur ». Construire selon la norme la plus exigeante — puis s’adapter vers le bas — est plus efficace et défendable que de maintenir des silos de conformité par juridiction. Documentez votre raisonnement de conformité en temps réel ; si les tribunaux fédéraux invalident certaines exigences étatiques, vous aurez besoin de preuves montrant que votre gouvernance de l’IA était raisonnable selon le cadre juridique finalement applicable.
  • 3. Les contrats avec les fournisseurs sont votre première ligne de défense. Les fournisseurs d’IA et de technologie RH ont des obligations directes en vertu de lois comme celle du Colorado, et vos accords doivent répartir les responsabilités pour les tests, l’accès aux données et le reporting d’incidents en conséquence. Par exemple, si vous utilisez un outil de sélection d’IA tiers, votre contrat doit préciser quelle partie effectue des audits de biais annuels, qui supporte les coûts, à quelle vitesse le fournisseur doit fournir un accès aux données pour la vérification de la conformité, et les procédures de notification si le fournisseur découvre une discrimination algorithmique potentielle.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...