L’Impact de l’IA sur l’Équité en Recrutement

A diverse group of people holding hands

Le Procureur Général du New Jersey et la Division des Droits Civils Commencent 2025 Avec des Orientations sur l’Utilisation de l’IA dans le Recrutement

Le 9 janvier 2025, le Procureur Général du New Jersey, Matthew J. Platkin, et la Division des Droits Civils (DCR) du New Jersey ont annoncé le lancement d’une Initiative sur les Droits Civils et la Technologie pour traiter les risques de discrimination et de harcèlement fondé sur les préjugés liés à l’utilisation de l’intelligence artificielle (IA) et d’autres technologies avancées. Dans le cadre de cette initiative, la DCR a émis une orientation sur la manière dont la loi du New Jersey contre la discrimination (LAD) s’applique à la discrimination résultant de l’utilisation de l’IA.

Vue d’ensemble

Cette orientation aborde l’utilisation de l’IA dans plusieurs contextes, mais est particulièrement pertinente pour les employeurs qui utilisent l’IA pour aider à sélectionner des candidats et évaluer la performance des employés.

Discrimination Algorithmique

L’orientation explique que la LAD s’applique à la discrimination algorithmique, c’est-à-dire à la discrimination résultant de l’utilisation par un employeur d’outils de décision automatisés. Même si l’employeur n’a pas développé l’outil IA et n’est pas conscient de la discrimination algorithmique de l’outil, il peut toujours être tenu responsable de la discrimination résultant de l’utilisation de cet outil.

Par conséquent, les employeurs doivent soigneusement considérer comment ils utilisent l’IA pour éviter une éventuelle responsabilité pour discrimination algorithmique.

Discrimination par Traitement Différent et Impact Différent

L’orientation donne plusieurs exemples de discrimination algorithmique. Elle note que les outils d’IA peuvent engager une discrimination par traitement différent s’ils sont conçus ou utilisés pour traiter les membres d’une classe protégée différemment. Par exemple, une entité pourrait être responsable de discrimination par traitement différent si elle utilise l’IA de manière sélective, en n’évaluant que les candidats potentiels noirs avec l’IA, mais pas ceux d’autres races.

De plus, même si un outil d’IA n’est pas utilisé de manière sélective et ne prend pas en compte directement une caractéristique protégée, il peut néanmoins « faire des recommandations basées sur un proxy proche d’une caractéristique protégée », comme la race ou le sexe.

Les outils d’IA peuvent également engager une discrimination par impact différent en violation de la LAD si leurs critères apparemment non discriminatoires ont un effet négatif disproportionné sur les membres d’une classe protégée. Par exemple, une entreprise utilisant l’IA pour évaluer des offres de contrat qui élimine de manière disproportionnée les offres des entreprises détenues par des femmes.

Accommodements Raisonnables

Il est également précisé que l’utilisation par un employeur d’outils d’IA peut violer la LAD si ces outils « empêchent ou entravent la fourniture d’accommodements raisonnables. » Par exemple, lorsqu’ils sont utilisés dans le recrutement, l’IA peut exclure de manière disproportionnée des candidats qui pourraient effectuer le travail avec un accommodement raisonnable.

Si un employeur utilise l’IA pour suivre la productivité de ses employés et leur temps de pause, cela peut « signaliser de manière disproportionnée pour discipline les employés qui sont autorisés à prendre des pauses supplémentaires pour accommoder un handicap. »

Responsabilité

Notamment, l’orientation adopte une vue large de qui peut être tenu responsable de la discrimination algorithmique. Comme d’autres directives et lois liées à l’IA, sous la LAD, les employeurs ne peuvent pas transférer la responsabilité à leurs fournisseurs d’IA ou à des développeurs externes, même si l’entité ne connaît pas le fonctionnement interne de l’outil.

Meilleures Pratiques

Pour diminuer le risque de responsabilité sous la LAD, les employeurs doivent prendre certaines mesures pour s’assurer que les outils d’IA qu’ils utilisent pour prendre ou informer des décisions d’emploi ne présentent pas de biais algorithmique ou ne violent pas la LAD. Ces mesures incluent :

  1. Créer un groupe IA responsable de la mise en œuvre des outils d’IA, composé d’une section transversale de l’organisation, comme des membres des départements juridique, des ressources humaines, de la vie privée, de la communication et des technologies de l’information.
  2. Mettre en œuvre des politiques et des procédures liées à l’IA.
  3. Former sur les outils d’IA et le biais algorithmique, et n’autoriser que les employés ayant terminé la formation à utiliser les outils d’IA.
  4. Vérifier minutieusement les fournisseurs et outils d’IA.
  5. Obtenir des dispositions contractuelles appropriées des fournisseurs d’IA, garantissant que les outils du fournisseur respectent toutes les lois applicables, y compris, sans limitation, toutes les lois du travail et de l’emploi.
  6. Aborder rapidement tout problème identifié lors des audits ou tests.
  7. Examiner toute police d’assurance responsabilité civile pour pratiques d’emploi ou autres polices d’assurance applicables pour voir si une couverture est disponible.
  8. Assurer qu’il y a toujours un élément humain dans toute prise de décision impliquant un outil d’IA.

Les avocats spécialisés en droit du travail, de l’emploi et de la sécurité au travail conseillent régulièrement leurs clients sur une large variété de préoccupations liées aux problèmes émergents dans le droit du travail, de l’emploi et de la sécurité au travail, et sont bien positionnés pour fournir des conseils et une assistance à leurs clients sur les développements liés à l’IA.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...

L’Alignement de l’IA : Vers une Gouvernance Éthique

Gillian K. Hadfield a été nommée professeure distinguée Bloomberg en alignement et gouvernance de l'IA à l'Université Johns Hopkins. Elle se concentre sur la manière dont les systèmes d'IA peuvent...

Les dangers cachés du porno par échange de visages

La technologie de remplacement de visage, alimentée par l'IA, permet aux utilisateurs de remplacer le visage d'une personne dans une vidéo de manière très réaliste. Cependant, son utilisation abusive...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...