Procès révolutionnaire sur l’impact des outils d’embauche basés sur l’IA sur la conformité au FCRA

A shattered crystal globe with a circuit board embedded within, displaying a fractured job application form.

Poursuite révolutionnaire sur la conformité des outils de recrutement par IA avec la FCRA

Selon la plainte, une entreprise génère des rapports sur les candidats en utilisant des outils alimentés par l’IA qui assemblent et évaluent des informations sur les employés potentiels et évaluent leur « adéquation » pour un emploi en fonction de facteurs tels que « l’historique professionnel, la trajectoire de carrière future projetée, l’adéquation à la culture, et d’autres caractéristiques personnelles ». L’entreprise aurait ensuite vendu ces rapports aux employeurs pour les aider à prendre des décisions d’embauche.

Pour générer ces rapports, la plainte allègue que des informations sont introduites dans le modèle de langage de grande taille de l’entreprise, qui intègre plus de 1,5 milliard de points de données provenant de titres de postes, de compétences, et des profils de plus d’un milliard de personnes travaillant dans tous les emplois, professions et industries.

La plainte affirme que les outils d’évaluation de l’entreprise évaluent et classent les candidats en utilisant les données recueillies lors du processus de candidature, les données internes de l’employeur, des données externes, et le modèle de langage de l’entreprise.

Nature des évaluations

Plus précisément, la plainte allègue que l’évaluation inclut non seulement le profil et le CV du candidat, mais aussi des « données supplémentaires sur le candidat recueillies à partir de sources publiques concernant son historique professionnel (telles que des blogs, des publications, des conférences, l’historique des candidatures, etc.) », des données d’autres employés comparables, des prévisions concernant le candidat, et « des données utilisées pour entraîner l’IA de l’entreprise ».

De plus, la plainte allègue qu’une fois qu’un candidat postule pour un emploi auprès d’un employeur utilisant cet outil, l’entreprise conserve les données du candidat et les utilise pour évaluer d’autres candidats pour le même poste, des postes non liés, ou pour le même candidat pour d’autres postes à l’avenir.

Protections FCRA

La FCRA et ses équivalents étatiques régulent comment les employeurs obtiennent et utilisent des rapports de consommation (ou vérifications de fonds) à des fins d’emploi, y compris l’embauche, la promotion ou la rétention. La FCRA exige que les employeurs fournissent des divulgations écrites distinctes aux employés et aux candidats, et qu’ils obtiennent une autorisation écrite avant d’obtenir un rapport. Pour prendre une « action défavorable », comme le rejet d’un candidat basé sur des informations contenues dans un rapport de consommation, la FCRA impose des exigences supplémentaires de notification avant et après l’action défavorable, offrant au candidat une possibilité de corriger des informations inexactes.

La FCRA régule également les « agences de rapport à la consommation », définies comme des entités qui assemblent ou évaluent des informations sur les consommateurs dans le but de fournir des rapports de consommation liés au « caractère, à la réputation générale, aux caractéristiques personnelles, ou au mode de vie » des consommateurs, des termes larges qui englobent de nombreux attributs des candidats ou des employés, à des tiers. La FCRA donne également aux consommateurs le droit d’accéder, de contester, et de corriger les informations dans leurs rapports de consommation.

Implications pour les employeurs

Alors que les outils d’IA ont déjà fait face à des poursuites et des régulations alléguant qu’ils peuvent conduire à une discrimination illégale à l’embauche, la nouvelle poursuite soulève des allégations et des questions inédites sur la manière dont ces outils pourraient impliquer la FCRA et d’autres lois sur les vérifications de fonds, un cadre légal très différent des lois sur la discrimination à l’embauche.

Prochaines étapes

La poursuite pourrait être la première d’un nouveau type de litige de recours collectif visant des outils d’emploi utilisant l’IA ou des processus de décision automatisés ou algorithmiques qui récupèrent ou utilisent des données spécifiques aux candidats ou aux employés. Cependant, l’affaire en est à ses débuts, et il n’est pas clair si les allégations survivront à la procédure judiciaire.

Les employeurs peuvent souhaiter surveiller cette affaire et des affaires similaires au fur et à mesure de leur évolution. En attendant, ils pourraient également vouloir revoir leur utilisation des outils alimentés par l’IA pour le recrutement et l’embauche. Si de tels outils sont utilisés, les employeurs pourraient aussi vouloir évaluer leur fonctionnement, y compris quelles données spécifiques sont collectées et utilisées dans l’évaluation des candidats et des employés.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...