Le Procureur Général du New Jersey et la Division des Droits Civils Commencent 2025 Avec des Orientations sur l’Utilisation de l’IA dans le Recrutement
Le 9 janvier 2025, le Procureur Général du New Jersey, Matthew J. Platkin, et la Division des Droits Civils (DCR) du New Jersey ont annoncé le lancement d’une Initiative sur les Droits Civils et la Technologie pour traiter les risques de discrimination et de harcèlement fondé sur les préjugés liés à l’utilisation de l’intelligence artificielle (IA) et d’autres technologies avancées. Dans le cadre de cette initiative, la DCR a émis une orientation sur la manière dont la loi du New Jersey contre la discrimination (LAD) s’applique à la discrimination résultant de l’utilisation de l’IA.
Vue d’ensemble
Cette orientation aborde l’utilisation de l’IA dans plusieurs contextes, mais est particulièrement pertinente pour les employeurs qui utilisent l’IA pour aider à sélectionner des candidats et évaluer la performance des employés.
Discrimination Algorithmique
L’orientation explique que la LAD s’applique à la discrimination algorithmique, c’est-à-dire à la discrimination résultant de l’utilisation par un employeur d’outils de décision automatisés. Même si l’employeur n’a pas développé l’outil IA et n’est pas conscient de la discrimination algorithmique de l’outil, il peut toujours être tenu responsable de la discrimination résultant de l’utilisation de cet outil.
Par conséquent, les employeurs doivent soigneusement considérer comment ils utilisent l’IA pour éviter une éventuelle responsabilité pour discrimination algorithmique.
Discrimination par Traitement Différent et Impact Différent
L’orientation donne plusieurs exemples de discrimination algorithmique. Elle note que les outils d’IA peuvent engager une discrimination par traitement différent s’ils sont conçus ou utilisés pour traiter les membres d’une classe protégée différemment. Par exemple, une entité pourrait être responsable de discrimination par traitement différent si elle utilise l’IA de manière sélective, en n’évaluant que les candidats potentiels noirs avec l’IA, mais pas ceux d’autres races.
De plus, même si un outil d’IA n’est pas utilisé de manière sélective et ne prend pas en compte directement une caractéristique protégée, il peut néanmoins « faire des recommandations basées sur un proxy proche d’une caractéristique protégée », comme la race ou le sexe.
Les outils d’IA peuvent également engager une discrimination par impact différent en violation de la LAD si leurs critères apparemment non discriminatoires ont un effet négatif disproportionné sur les membres d’une classe protégée. Par exemple, une entreprise utilisant l’IA pour évaluer des offres de contrat qui élimine de manière disproportionnée les offres des entreprises détenues par des femmes.
Accommodements Raisonnables
Il est également précisé que l’utilisation par un employeur d’outils d’IA peut violer la LAD si ces outils « empêchent ou entravent la fourniture d’accommodements raisonnables. » Par exemple, lorsqu’ils sont utilisés dans le recrutement, l’IA peut exclure de manière disproportionnée des candidats qui pourraient effectuer le travail avec un accommodement raisonnable.
Si un employeur utilise l’IA pour suivre la productivité de ses employés et leur temps de pause, cela peut « signaliser de manière disproportionnée pour discipline les employés qui sont autorisés à prendre des pauses supplémentaires pour accommoder un handicap. »
Responsabilité
Notamment, l’orientation adopte une vue large de qui peut être tenu responsable de la discrimination algorithmique. Comme d’autres directives et lois liées à l’IA, sous la LAD, les employeurs ne peuvent pas transférer la responsabilité à leurs fournisseurs d’IA ou à des développeurs externes, même si l’entité ne connaît pas le fonctionnement interne de l’outil.
Meilleures Pratiques
Pour diminuer le risque de responsabilité sous la LAD, les employeurs doivent prendre certaines mesures pour s’assurer que les outils d’IA qu’ils utilisent pour prendre ou informer des décisions d’emploi ne présentent pas de biais algorithmique ou ne violent pas la LAD. Ces mesures incluent :
- Créer un groupe IA responsable de la mise en œuvre des outils d’IA, composé d’une section transversale de l’organisation, comme des membres des départements juridique, des ressources humaines, de la vie privée, de la communication et des technologies de l’information.
- Mettre en œuvre des politiques et des procédures liées à l’IA.
- Former sur les outils d’IA et le biais algorithmique, et n’autoriser que les employés ayant terminé la formation à utiliser les outils d’IA.
- Vérifier minutieusement les fournisseurs et outils d’IA.
- Obtenir des dispositions contractuelles appropriées des fournisseurs d’IA, garantissant que les outils du fournisseur respectent toutes les lois applicables, y compris, sans limitation, toutes les lois du travail et de l’emploi.
- Aborder rapidement tout problème identifié lors des audits ou tests.
- Examiner toute police d’assurance responsabilité civile pour pratiques d’emploi ou autres polices d’assurance applicables pour voir si une couverture est disponible.
- Assurer qu’il y a toujours un élément humain dans toute prise de décision impliquant un outil d’IA.
Les avocats spécialisés en droit du travail, de l’emploi et de la sécurité au travail conseillent régulièrement leurs clients sur une large variété de préoccupations liées aux problèmes émergents dans le droit du travail, de l’emploi et de la sécurité au travail, et sont bien positionnés pour fournir des conseils et une assistance à leurs clients sur les développements liés à l’IA.