Les travailleurs contestent les outils de recrutement IA « cachés » dans une action collective avec des enjeux réglementaires majeurs
Les travailleurs commencent à se lasser des pratiques de recrutement basées sur l’IA. Une nouvelle action collective déposée en Californie allègue que les candidats humains sont injustement profilés par des technologies de recrutement IA « cachées » qui « se cachent en arrière-plan » pour recueillir des informations « sensibles et souvent inexactes » sur des candidats à l’emploi « innocents ».
Les allégations contre Eightfold AI
Le procès vise spécifiquement une entreprise qui utilise des outils de recrutement IA, en affirmant que ces outils devraient être réglementés de la même manière que les agences de rapport de crédit selon la Fair Credit Reporting Act (FCRA) et les lois d’État qui en découlent. Cette affaire pourrait avoir des implications larges pour l’utilisation croissante de l’IA dans le recrutement.
Les plaignants affirment avoir été exclus de plusieurs opportunités d’emploi par des entreprises utilisant des outils de recrutement basés sur l’IA. Selon la plainte, l’entreprise violerait les lois fédérales et étatiques sur la protection des données et la concurrence déloyale en collectant des données sur les candidats et en vendant des rapports aux entreprises pour des décisions d’embauche.
Les conséquences potentielles
Cette méthode de création de rapports, qui analyse les données à partir de ressources publiques, y compris les sites d’emploi et les bases de données de CV, est considérée comme « non examinable » et « largement invisible » aux candidats. Les plaignants soutiennent que les candidats ayant un score inférieur sont souvent écartés avant même qu’un humain n’examine leur candidature.
La plainte souligne que ces pratiques violeraient les exigences de longue date de la FCRA, qui définit largement les rapports sur les consommateurs comme toute communication écrite ou orale d’une agence de rapport de consommation qui inclut des informations sur une personne pour déterminer son accès au crédit et à l’assurance, ainsi que pour des « fins d’emploi ».
Les enjeux de la gouvernance et de la responsabilité
Cette action en justice met en lumière un « échec de gouvernance » et un « manque fondamental de responsabilité ». D’autres entreprises, comme Workday, sont également confrontées à des poursuites alléguant que leurs outils de recrutement IA prennent des décisions basées sur la race et discriminent les candidats plus âgés et handicapés.
Si les tribunaux conviennent que les évaluations IA fonctionnent comme des rapports de crédit, le recrutement sera contraint d’entrer dans un territoire réglementé, ce qui obligera les entreprises à établir des règles autour de la notification, de la transparence et des droits d’audit.
Les bénéfices et les limites de l’IA dans le recrutement
Bien que l’IA puisse être précieuse dans le recrutement, de nombreux exemples réels montrent qu’elle peut également créer des problèmes. Les entreprises doivent exiger des preuves lisibles par un humain de la part des fournisseurs, y compris des journaux, des audits de biais et des divulgations sur les mises à jour des modèles.
En conclusion, l’avenir des technologies de recrutement doit être humain avec machine, gouverné dès le départ. La défense deviendra la nouvelle norme, et les entreprises devront prouver qu’elles ont fait leurs devoirs en matière de transparence et de responsabilité dans leurs processus de recrutement.