L’Impact de l’IA sur l’Équité en Recrutement

A diverse group of people holding hands

Le Procureur Général du New Jersey et la Division des Droits Civils Commencent 2025 Avec des Orientations sur l’Utilisation de l’IA dans le Recrutement

Le 9 janvier 2025, le Procureur Général du New Jersey, Matthew J. Platkin, et la Division des Droits Civils (DCR) du New Jersey ont annoncé le lancement d’une Initiative sur les Droits Civils et la Technologie pour traiter les risques de discrimination et de harcèlement fondé sur les préjugés liés à l’utilisation de l’intelligence artificielle (IA) et d’autres technologies avancées. Dans le cadre de cette initiative, la DCR a émis une orientation sur la manière dont la loi du New Jersey contre la discrimination (LAD) s’applique à la discrimination résultant de l’utilisation de l’IA.

Vue d’ensemble

Cette orientation aborde l’utilisation de l’IA dans plusieurs contextes, mais est particulièrement pertinente pour les employeurs qui utilisent l’IA pour aider à sélectionner des candidats et évaluer la performance des employés.

Discrimination Algorithmique

L’orientation explique que la LAD s’applique à la discrimination algorithmique, c’est-à-dire à la discrimination résultant de l’utilisation par un employeur d’outils de décision automatisés. Même si l’employeur n’a pas développé l’outil IA et n’est pas conscient de la discrimination algorithmique de l’outil, il peut toujours être tenu responsable de la discrimination résultant de l’utilisation de cet outil.

Par conséquent, les employeurs doivent soigneusement considérer comment ils utilisent l’IA pour éviter une éventuelle responsabilité pour discrimination algorithmique.

Discrimination par Traitement Différent et Impact Différent

L’orientation donne plusieurs exemples de discrimination algorithmique. Elle note que les outils d’IA peuvent engager une discrimination par traitement différent s’ils sont conçus ou utilisés pour traiter les membres d’une classe protégée différemment. Par exemple, une entité pourrait être responsable de discrimination par traitement différent si elle utilise l’IA de manière sélective, en n’évaluant que les candidats potentiels noirs avec l’IA, mais pas ceux d’autres races.

De plus, même si un outil d’IA n’est pas utilisé de manière sélective et ne prend pas en compte directement une caractéristique protégée, il peut néanmoins « faire des recommandations basées sur un proxy proche d’une caractéristique protégée », comme la race ou le sexe.

Les outils d’IA peuvent également engager une discrimination par impact différent en violation de la LAD si leurs critères apparemment non discriminatoires ont un effet négatif disproportionné sur les membres d’une classe protégée. Par exemple, une entreprise utilisant l’IA pour évaluer des offres de contrat qui élimine de manière disproportionnée les offres des entreprises détenues par des femmes.

Accommodements Raisonnables

Il est également précisé que l’utilisation par un employeur d’outils d’IA peut violer la LAD si ces outils « empêchent ou entravent la fourniture d’accommodements raisonnables. » Par exemple, lorsqu’ils sont utilisés dans le recrutement, l’IA peut exclure de manière disproportionnée des candidats qui pourraient effectuer le travail avec un accommodement raisonnable.

Si un employeur utilise l’IA pour suivre la productivité de ses employés et leur temps de pause, cela peut « signaliser de manière disproportionnée pour discipline les employés qui sont autorisés à prendre des pauses supplémentaires pour accommoder un handicap. »

Responsabilité

Notamment, l’orientation adopte une vue large de qui peut être tenu responsable de la discrimination algorithmique. Comme d’autres directives et lois liées à l’IA, sous la LAD, les employeurs ne peuvent pas transférer la responsabilité à leurs fournisseurs d’IA ou à des développeurs externes, même si l’entité ne connaît pas le fonctionnement interne de l’outil.

Meilleures Pratiques

Pour diminuer le risque de responsabilité sous la LAD, les employeurs doivent prendre certaines mesures pour s’assurer que les outils d’IA qu’ils utilisent pour prendre ou informer des décisions d’emploi ne présentent pas de biais algorithmique ou ne violent pas la LAD. Ces mesures incluent :

  1. Créer un groupe IA responsable de la mise en œuvre des outils d’IA, composé d’une section transversale de l’organisation, comme des membres des départements juridique, des ressources humaines, de la vie privée, de la communication et des technologies de l’information.
  2. Mettre en œuvre des politiques et des procédures liées à l’IA.
  3. Former sur les outils d’IA et le biais algorithmique, et n’autoriser que les employés ayant terminé la formation à utiliser les outils d’IA.
  4. Vérifier minutieusement les fournisseurs et outils d’IA.
  5. Obtenir des dispositions contractuelles appropriées des fournisseurs d’IA, garantissant que les outils du fournisseur respectent toutes les lois applicables, y compris, sans limitation, toutes les lois du travail et de l’emploi.
  6. Aborder rapidement tout problème identifié lors des audits ou tests.
  7. Examiner toute police d’assurance responsabilité civile pour pratiques d’emploi ou autres polices d’assurance applicables pour voir si une couverture est disponible.
  8. Assurer qu’il y a toujours un élément humain dans toute prise de décision impliquant un outil d’IA.

Les avocats spécialisés en droit du travail, de l’emploi et de la sécurité au travail conseillent régulièrement leurs clients sur une large variété de préoccupations liées aux problèmes émergents dans le droit du travail, de l’emploi et de la sécurité au travail, et sont bien positionnés pour fournir des conseils et une assistance à leurs clients sur les développements liés à l’IA.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...