Les nouvelles réglementations potentielles sur l’emploi liées à l’IA en Californie : Ce que les employeurs doivent savoir
Dans une première initiative du genre, la Californie a finalisé des réglementations révolutionnaires qui traitent directement de l’utilisation de l’intelligence artificielle (IA) et des systèmes de décision automatisés (SDA) dans l’emploi. Ces règles, approuvées par le Conseil des droits civils de Californie en mars 2025, envoient un message clair : bien que les outils d’IA puissent être précieux dans le recrutement, l’embauche et la gestion de la main-d’œuvre, ils ne doivent pas être utilisés de manière à discriminer les candidats ou les employés.
Ces réglementations devraient entrer en vigueur plus tard cette année, une fois approuvées par le Bureau des lois administratives. Voici ce que les employeurs californiens doivent savoir.
1. Objectif et portée des nouvelles réglementations
Les réglementations visent à garantir que l’utilisation croissante de la technologie dans les décisions d’emploi soit conforme à la Loi sur l’emploi équitable et le logement (FEHA). En essence, les règles étendent les protections traditionnelles contre la discrimination à l’ère numérique en :
- Définissant quand et comment les systèmes automatisés sont couverts par la loi sur l’emploi en Californie
- Interdisant les impacts discriminatoires découlant des SDA
- Établissant des obligations de conservation des dossiers et de notification pour les employeurs utilisant ces technologies
2. Qu’est-ce qu’un système de décision automatisé (SDA) ?
Les réglementations définissent un SDA comme : “Un processus computationnel qui prend une décision ou facilite la prise de décision humaine concernant un avantage en matière d’emploi”, y compris les outils qui s’appuient sur l’IA, l’apprentissage machine, les algorithmes ou les statistiques.
Exemples de SDA :
- Outils de filtrage de CV
- Systèmes de notation des entretiens automatisés qui effectuent des évaluations prédictives sur les compétences, les capacités ou les caractéristiques d’un candidat ou employé
- Logiciels vidéo qui analysent la voix ou les expressions faciales
- Outils qui priorisent ou classent les candidats
- Systèmes qui dirigent des annonces d’emploi vers certains groupes
Exclus : Outils de base comme les traitements de texte, les tableurs et les logiciels de sécurité, tant qu’ils ne prennent pas ou n’influencent pas les décisions d’emploi.
3. Interdictions et exigences clés
Aucune discrimination : Les réglementations stipulent qu’il est illégal pour un employeur ou une autre entité couverte d’utiliser un système de décision automatisé ou des critères de sélection (y compris une norme de qualification, un test d’emploi ou un proxy) qui discrimine un candidat ou un employé ou une classe de candidats ou d’employés sur une base protégée par la loi, sous réserve de toute défense disponible.
Domaines à haut risque spécifiques – Vérifications des antécédents criminels : Les employeurs ne peuvent pas utiliser les SDA pour filtrer les antécédents criminels avant une offre conditionnelle. Même après une offre, ils doivent effectuer des évaluations individualisées et ne peuvent pas se fier uniquement aux résultats automatisés.
Devoir de fournir des accommodations : Si un outil d’IA peut désavantager un candidat en raison d’un handicap ou d’une caractéristique protégée, l’employeur doit offrir une accommodation raisonnable (par exemple, des formats d’évaluation alternatifs).
Les fournisseurs tiers peuvent créer une responsabilité : Si un fournisseur ou un recruteur utilise un outil SDA en votre nom, vous pouvez toujours être légalement responsable. Les contrats devraient clarifier les responsabilités en matière de conformité et inclure des dispositions d’indemnisation.
4. Exigences en matière de documentation et de conformité
Les employeurs utilisant des SDA doivent :
- Conserver les données pertinentes, y compris les résultats des décisions automatisées et les données démographiques, pendant au moins quatre ans
- Tenir les dossiers séparés des dossiers du personnel
- Effectuer et documenter des tests anti-biais sur les outils d’IA
- Réagir de manière appropriée aux résultats des tests
5. Prochaines étapes pour les employeurs
Si les réglementations sont adoptées en Californie, les employeurs devraient :
- Examiner tous les SDA et outils d’IA en usage – Effectuer un audit des technologies utilisées dans le recrutement, l’embauche, les promotions et la discipline.
- Engager des conseillers juridiques ou des experts en conformité – Évaluer si les outils sont susceptibles d’avoir un impact discriminatoire ou de violer la FEHA.
- Demander la transparence aux fournisseurs – Demander des informations sur les tests de biais, les données d’entraînement et la logique du système.
- Mettre en œuvre des politiques de notification et d’accommodation – Informer clairement les candidats lorsque des SDA seront utilisés et comment ils peuvent demander une accommodation.
- Utiliser une supervision humaine – Ne pas se fier exclusivement à l’IA pour les décisions d’emploi. Un humain doit examiner et approuver les décisions finales.
Si ces réglementations sont adoptées, la Californie pourrait rejoindre des juridictions comme New York, l’Illinois et le Colorado dans la régulation de l’IA au travail. Alors que le gouvernement fédéral est encore en train de développer son approche, des États comme la Californie pourraient commencer à réglementer comment l’IA peut être utilisée dans les décisions d’emploi.
Les employeurs opérant en Californie doivent traiter l’IA et l’automatisation avec la même prudence et diligence que toute autre pratique d’emploi soumise aux lois anti-discrimination.