Réglementations californiennes sur l’IA en emploi : Ce que les employeurs doivent savoir

A computer with a lock icon

Les nouvelles réglementations potentielles sur l’emploi liées à l’IA en Californie : Ce que les employeurs doivent savoir

Dans une première initiative du genre, la Californie a finalisé des réglementations révolutionnaires qui traitent directement de l’utilisation de l’intelligence artificielle (IA) et des systèmes de décision automatisés (SDA) dans l’emploi. Ces règles, approuvées par le Conseil des droits civils de Californie en mars 2025, envoient un message clair : bien que les outils d’IA puissent être précieux dans le recrutement, l’embauche et la gestion de la main-d’œuvre, ils ne doivent pas être utilisés de manière à discriminer les candidats ou les employés.

Ces réglementations devraient entrer en vigueur plus tard cette année, une fois approuvées par le Bureau des lois administratives. Voici ce que les employeurs californiens doivent savoir.

1. Objectif et portée des nouvelles réglementations

Les réglementations visent à garantir que l’utilisation croissante de la technologie dans les décisions d’emploi soit conforme à la Loi sur l’emploi équitable et le logement (FEHA). En essence, les règles étendent les protections traditionnelles contre la discrimination à l’ère numérique en :

  • Définissant quand et comment les systèmes automatisés sont couverts par la loi sur l’emploi en Californie
  • Interdisant les impacts discriminatoires découlant des SDA
  • Établissant des obligations de conservation des dossiers et de notification pour les employeurs utilisant ces technologies

2. Qu’est-ce qu’un système de décision automatisé (SDA) ?

Les réglementations définissent un SDA comme : “Un processus computationnel qui prend une décision ou facilite la prise de décision humaine concernant un avantage en matière d’emploi”, y compris les outils qui s’appuient sur l’IA, l’apprentissage machine, les algorithmes ou les statistiques.

Exemples de SDA :

  • Outils de filtrage de CV
  • Systèmes de notation des entretiens automatisés qui effectuent des évaluations prédictives sur les compétences, les capacités ou les caractéristiques d’un candidat ou employé
  • Logiciels vidéo qui analysent la voix ou les expressions faciales
  • Outils qui priorisent ou classent les candidats
  • Systèmes qui dirigent des annonces d’emploi vers certains groupes

Exclus : Outils de base comme les traitements de texte, les tableurs et les logiciels de sécurité, tant qu’ils ne prennent pas ou n’influencent pas les décisions d’emploi.

3. Interdictions et exigences clés

Aucune discrimination : Les réglementations stipulent qu’il est illégal pour un employeur ou une autre entité couverte d’utiliser un système de décision automatisé ou des critères de sélection (y compris une norme de qualification, un test d’emploi ou un proxy) qui discrimine un candidat ou un employé ou une classe de candidats ou d’employés sur une base protégée par la loi, sous réserve de toute défense disponible.

Domaines à haut risque spécifiquesVérifications des antécédents criminels : Les employeurs ne peuvent pas utiliser les SDA pour filtrer les antécédents criminels avant une offre conditionnelle. Même après une offre, ils doivent effectuer des évaluations individualisées et ne peuvent pas se fier uniquement aux résultats automatisés.

Devoir de fournir des accommodations : Si un outil d’IA peut désavantager un candidat en raison d’un handicap ou d’une caractéristique protégée, l’employeur doit offrir une accommodation raisonnable (par exemple, des formats d’évaluation alternatifs).

Les fournisseurs tiers peuvent créer une responsabilité : Si un fournisseur ou un recruteur utilise un outil SDA en votre nom, vous pouvez toujours être légalement responsable. Les contrats devraient clarifier les responsabilités en matière de conformité et inclure des dispositions d’indemnisation.

4. Exigences en matière de documentation et de conformité

Les employeurs utilisant des SDA doivent :

  • Conserver les données pertinentes, y compris les résultats des décisions automatisées et les données démographiques, pendant au moins quatre ans
  • Tenir les dossiers séparés des dossiers du personnel
  • Effectuer et documenter des tests anti-biais sur les outils d’IA
  • Réagir de manière appropriée aux résultats des tests

5. Prochaines étapes pour les employeurs

Si les réglementations sont adoptées en Californie, les employeurs devraient :

  • Examiner tous les SDA et outils d’IA en usage – Effectuer un audit des technologies utilisées dans le recrutement, l’embauche, les promotions et la discipline.
  • Engager des conseillers juridiques ou des experts en conformité – Évaluer si les outils sont susceptibles d’avoir un impact discriminatoire ou de violer la FEHA.
  • Demander la transparence aux fournisseurs – Demander des informations sur les tests de biais, les données d’entraînement et la logique du système.
  • Mettre en œuvre des politiques de notification et d’accommodation – Informer clairement les candidats lorsque des SDA seront utilisés et comment ils peuvent demander une accommodation.
  • Utiliser une supervision humaine – Ne pas se fier exclusivement à l’IA pour les décisions d’emploi. Un humain doit examiner et approuver les décisions finales.

Si ces réglementations sont adoptées, la Californie pourrait rejoindre des juridictions comme New York, l’Illinois et le Colorado dans la régulation de l’IA au travail. Alors que le gouvernement fédéral est encore en train de développer son approche, des États comme la Californie pourraient commencer à réglementer comment l’IA peut être utilisée dans les décisions d’emploi.

Les employeurs opérant en Californie doivent traiter l’IA et l’automatisation avec la même prudence et diligence que toute autre pratique d’emploi soumise aux lois anti-discrimination.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...