L’Impact de l’IA sur l’Équité en Recrutement

A diverse group of people holding hands

Le Procureur Général du New Jersey et la Division des Droits Civils Commencent 2025 Avec des Orientations sur l’Utilisation de l’IA dans le Recrutement

Le 9 janvier 2025, le Procureur Général du New Jersey, Matthew J. Platkin, et la Division des Droits Civils (DCR) du New Jersey ont annoncé le lancement d’une Initiative sur les Droits Civils et la Technologie pour traiter les risques de discrimination et de harcèlement fondé sur les préjugés liés à l’utilisation de l’intelligence artificielle (IA) et d’autres technologies avancées. Dans le cadre de cette initiative, la DCR a émis une orientation sur la manière dont la loi du New Jersey contre la discrimination (LAD) s’applique à la discrimination résultant de l’utilisation de l’IA.

Vue d’ensemble

Cette orientation aborde l’utilisation de l’IA dans plusieurs contextes, mais est particulièrement pertinente pour les employeurs qui utilisent l’IA pour aider à sélectionner des candidats et évaluer la performance des employés.

Discrimination Algorithmique

L’orientation explique que la LAD s’applique à la discrimination algorithmique, c’est-à-dire à la discrimination résultant de l’utilisation par un employeur d’outils de décision automatisés. Même si l’employeur n’a pas développé l’outil IA et n’est pas conscient de la discrimination algorithmique de l’outil, il peut toujours être tenu responsable de la discrimination résultant de l’utilisation de cet outil.

Par conséquent, les employeurs doivent soigneusement considérer comment ils utilisent l’IA pour éviter une éventuelle responsabilité pour discrimination algorithmique.

Discrimination par Traitement Différent et Impact Différent

L’orientation donne plusieurs exemples de discrimination algorithmique. Elle note que les outils d’IA peuvent engager une discrimination par traitement différent s’ils sont conçus ou utilisés pour traiter les membres d’une classe protégée différemment. Par exemple, une entité pourrait être responsable de discrimination par traitement différent si elle utilise l’IA de manière sélective, en n’évaluant que les candidats potentiels noirs avec l’IA, mais pas ceux d’autres races.

De plus, même si un outil d’IA n’est pas utilisé de manière sélective et ne prend pas en compte directement une caractéristique protégée, il peut néanmoins « faire des recommandations basées sur un proxy proche d’une caractéristique protégée », comme la race ou le sexe.

Les outils d’IA peuvent également engager une discrimination par impact différent en violation de la LAD si leurs critères apparemment non discriminatoires ont un effet négatif disproportionné sur les membres d’une classe protégée. Par exemple, une entreprise utilisant l’IA pour évaluer des offres de contrat qui élimine de manière disproportionnée les offres des entreprises détenues par des femmes.

Accommodements Raisonnables

Il est également précisé que l’utilisation par un employeur d’outils d’IA peut violer la LAD si ces outils « empêchent ou entravent la fourniture d’accommodements raisonnables. » Par exemple, lorsqu’ils sont utilisés dans le recrutement, l’IA peut exclure de manière disproportionnée des candidats qui pourraient effectuer le travail avec un accommodement raisonnable.

Si un employeur utilise l’IA pour suivre la productivité de ses employés et leur temps de pause, cela peut « signaliser de manière disproportionnée pour discipline les employés qui sont autorisés à prendre des pauses supplémentaires pour accommoder un handicap. »

Responsabilité

Notamment, l’orientation adopte une vue large de qui peut être tenu responsable de la discrimination algorithmique. Comme d’autres directives et lois liées à l’IA, sous la LAD, les employeurs ne peuvent pas transférer la responsabilité à leurs fournisseurs d’IA ou à des développeurs externes, même si l’entité ne connaît pas le fonctionnement interne de l’outil.

Meilleures Pratiques

Pour diminuer le risque de responsabilité sous la LAD, les employeurs doivent prendre certaines mesures pour s’assurer que les outils d’IA qu’ils utilisent pour prendre ou informer des décisions d’emploi ne présentent pas de biais algorithmique ou ne violent pas la LAD. Ces mesures incluent :

  1. Créer un groupe IA responsable de la mise en œuvre des outils d’IA, composé d’une section transversale de l’organisation, comme des membres des départements juridique, des ressources humaines, de la vie privée, de la communication et des technologies de l’information.
  2. Mettre en œuvre des politiques et des procédures liées à l’IA.
  3. Former sur les outils d’IA et le biais algorithmique, et n’autoriser que les employés ayant terminé la formation à utiliser les outils d’IA.
  4. Vérifier minutieusement les fournisseurs et outils d’IA.
  5. Obtenir des dispositions contractuelles appropriées des fournisseurs d’IA, garantissant que les outils du fournisseur respectent toutes les lois applicables, y compris, sans limitation, toutes les lois du travail et de l’emploi.
  6. Aborder rapidement tout problème identifié lors des audits ou tests.
  7. Examiner toute police d’assurance responsabilité civile pour pratiques d’emploi ou autres polices d’assurance applicables pour voir si une couverture est disponible.
  8. Assurer qu’il y a toujours un élément humain dans toute prise de décision impliquant un outil d’IA.

Les avocats spécialisés en droit du travail, de l’emploi et de la sécurité au travail conseillent régulièrement leurs clients sur une large variété de préoccupations liées aux problèmes émergents dans le droit du travail, de l’emploi et de la sécurité au travail, et sont bien positionnés pour fournir des conseils et une assistance à leurs clients sur les développements liés à l’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...