Naviguer dans les nouvelles réglementations sur l’emploi liées à l’IA en Californie
Le Conseil des droits civils de Californie et l’Agence de protection de la vie privée de Californie ont récemment adopté des réglementations imposant des exigences aux employeurs qui utilisent des systèmes de décision automatisés ou des technologies de décision automatisée dans les décisions d’emploi ou certains processus RH. Du côté législatif, l’Assemblée législative de Californie a adopté le projet de loi SB 7, qui impose des obligations supplémentaires aux employeurs utilisant ces technologies ; le projet de loi est actuellement sur le bureau du gouverneur. De plus, le gouverneur a signé le projet de loi SB 53, qui accorde des droits de dénonciation aux employés en ce qui concerne la sécurité de l’IA. Ci-dessous, nous discutons de certaines des exigences clés dans les nouvelles réglementations et législations.
Réglementations du Conseil des droits civils de Californie – Réglementations ADS
Les réglementations sur l’emploi concernant les systèmes de décision automatisés (ADS) du Conseil des droits civils de Californie sont entrées en vigueur le 1er octobre 2025. Ces réglementations visent à traiter les potentielles discriminations lorsque les entreprises utilisent des outils d’intelligence artificielle pour prendre des décisions concernant le personnel. Elles s’appliquent aux employeurs comptant cinq employés ou plus en Californie. Les dispositions notables comprennent :
- Technologies couvertes. Les réglementations définissent un système de décision automatisé (ADS) comme un processus computationnel qui prend une décision ou facilite la prise de décision humaine concernant un avantage d’emploi. Un ADS peut utiliser de l’IA, de l’apprentissage machine, des algorithmes, des statistiques ou d’autres techniques de traitement de données. Un ADS peut réaliser des tâches telles que :
- Filtrer des CV pour des termes ou motifs particuliers;
- Cibler des publicités d’emploi ou d’autres matériels de recrutement vers des groupes spécifiques;
- Analyser les expressions faciales, le choix des mots ou la voix lors d’entretiens en ligne;
- Utiliser des évaluations ou tests basés sur ordinateur pour faire des évaluations prédictives;
- Analyser des données d’employés ou de candidats acquises auprès de tiers.
- Discrimination à l’emploi. Les réglementations précisent qu’il est illégal, en vertu de la loi californienne sur l’équité en matière d’emploi et de logement (FEHA), pour un employeur d’utiliser un ADS qui entraîne une discrimination contre un candidat ou un employé en raison d’une classe protégée par la FEHA (c’est-à-dire race, origine nationale, genre, âge, religion, handicap, etc.). Un employeur peut être tenu responsable même s’il n’a pas eu l’intention de discriminer, si l’utilisation de l’ADS entraîne un impact disparate sur une classe protégée.
- Tests anti-biais. Les réglementations stipulent que les tests anti-biais ou d’autres efforts proactifs pour éviter la discrimination illégale peuvent être utilisés en défense contre des réclamations de discrimination. En revanche, l’absence de tests anti-biais peut être utilisée comme preuve dans une réclamation contre un employeur.
- Conservation des dossiers. Un employeur doit conserver les dossiers liés aux ADS, y compris les critères de sélection, les résultats pertinents et les conclusions d’audit, pendant quatre ans.
Réglementations de l’Agence de protection de la vie privée de Californie – Réglementations ADMT
L’Agence de protection de la vie privée de Californie (CPPA) a récemment approuvé des réglementations sur l’utilisation des technologies de décision automatisée (ADMT) dans les décisions « significatives » concernant les consommateurs, y compris les employés. Les entreprises doivent se conformer aux réglementations d’ici le 1er janvier 2027. Les dispositions notables relatives aux employés, candidats à l’emploi et travailleurs indépendants comprennent :
- Technologies couvertes. Les réglementations définissent une technologie de décision automatisée (ADMT) comme toute technologie qui traite des informations personnelles et utilise des calculs pour remplacer la prise de décision humaine ou la remplacer de manière substantielle.
- Décision significative. Une « décision significative » inclut des opportunités d’emploi ou de travail indépendant, telles que le recrutement, l’allocation de travail, la rémunération, la promotion, la rétrogradation, la suspension ou le licenciement.
- Avis préalable. Une entreprise utilisant un ADMT pour prendre une décision significative doit fournir aux consommateurs un avis préalable décrivant l’utilisation de l’ADMT et les droits du consommateur d’opter pour ne pas utiliser et d’accéder à l’ADMT.
- Option de désinscription. Une entreprise doit permettre aux consommateurs de se désinscrire de l’utilisation de l’ADMT pour prendre une décision significative, sous réserve d’exceptions, y compris une option d’appel humain.
- Accès. Une entreprise qui utilise un ADMT pour prendre une décision significative doit fournir aux consommateurs des informations sur son utilisation, telles que l’objectif de l’ADMT et la logique impliquée, en réponse à une demande d’accès, sous réserve d’exceptions.
- Évaluations des risques. Les entreprises doivent réaliser une évaluation des risques avant d’utiliser un ADMT pour prendre une décision significative concernant les employés et candidats ou lorsque l’utilisation présente un risque significatif pour les employés. L’évaluation des risques doit contenir un contenu spécifié détaillé. Pour toute activité de traitement initiée avant la date d’entrée en vigueur des réglementations, l’entreprise doit réaliser une évaluation des risques d’ici le 31 décembre 2027.
Législation
Récemment, l’Assemblée législative de Californie a adopté le projet de loi SB 7, le « No Robo Bosses Act », qui exigerait un avis, une supervision humaine et une corroboration lorsque les employeurs utilisent des systèmes de décision automatisés pour des décisions qui impactent la vie des travailleurs. Le gouverneur Newsom a jusqu’au 12 octobre pour signer ou opposer son veto au projet de loi.
En attendant, le gouverneur a signé le projet de loi SB 53, la loi sur la transparence dans l’intelligence artificielle de pointe, qui entrera en vigueur le 1er janvier 2026. Cette nouvelle loi apporte des protections pour les dénonciateurs au sein des grandes entreprises d’IA, en lien avec les préoccupations des employés concernant des activités qui posent un danger spécifique et substantiel pour la santé ou la sécurité publiques.
Prochaines étapes
Les employeurs doivent se préparer aux réglementations et nouvelles lois pertinentes en comprenant les technologies que leurs départements RH et autres départements utilisent ou prévoient d’utiliser, susceptibles de déclencher ces exigences légales. Ils doivent développer des politiques et des processus pour garantir qu’ils respectent les exigences lors de l’utilisation de l’IA dans le contexte de l’emploi, par exemple, en fournissant des avis pertinents et en temps opportun aux candidats et/ou employés, en réalisant des évaluations de risques et des audits de biais, et en respectant les exigences de conservation des dossiers.