Réglementations californiennes sur l’IA en emploi : Ce que les employeurs doivent savoir

A computer with a lock icon

Les nouvelles réglementations potentielles sur l’emploi liées à l’IA en Californie : Ce que les employeurs doivent savoir

Dans une première initiative du genre, la Californie a finalisé des réglementations révolutionnaires qui traitent directement de l’utilisation de l’intelligence artificielle (IA) et des systèmes de décision automatisés (SDA) dans l’emploi. Ces règles, approuvées par le Conseil des droits civils de Californie en mars 2025, envoient un message clair : bien que les outils d’IA puissent être précieux dans le recrutement, l’embauche et la gestion de la main-d’œuvre, ils ne doivent pas être utilisés de manière à discriminer les candidats ou les employés.

Ces réglementations devraient entrer en vigueur plus tard cette année, une fois approuvées par le Bureau des lois administratives. Voici ce que les employeurs californiens doivent savoir.

1. Objectif et portée des nouvelles réglementations

Les réglementations visent à garantir que l’utilisation croissante de la technologie dans les décisions d’emploi soit conforme à la Loi sur l’emploi équitable et le logement (FEHA). En essence, les règles étendent les protections traditionnelles contre la discrimination à l’ère numérique en :

  • Définissant quand et comment les systèmes automatisés sont couverts par la loi sur l’emploi en Californie
  • Interdisant les impacts discriminatoires découlant des SDA
  • Établissant des obligations de conservation des dossiers et de notification pour les employeurs utilisant ces technologies

2. Qu’est-ce qu’un système de décision automatisé (SDA) ?

Les réglementations définissent un SDA comme : “Un processus computationnel qui prend une décision ou facilite la prise de décision humaine concernant un avantage en matière d’emploi”, y compris les outils qui s’appuient sur l’IA, l’apprentissage machine, les algorithmes ou les statistiques.

Exemples de SDA :

  • Outils de filtrage de CV
  • Systèmes de notation des entretiens automatisés qui effectuent des évaluations prédictives sur les compétences, les capacités ou les caractéristiques d’un candidat ou employé
  • Logiciels vidéo qui analysent la voix ou les expressions faciales
  • Outils qui priorisent ou classent les candidats
  • Systèmes qui dirigent des annonces d’emploi vers certains groupes

Exclus : Outils de base comme les traitements de texte, les tableurs et les logiciels de sécurité, tant qu’ils ne prennent pas ou n’influencent pas les décisions d’emploi.

3. Interdictions et exigences clés

Aucune discrimination : Les réglementations stipulent qu’il est illégal pour un employeur ou une autre entité couverte d’utiliser un système de décision automatisé ou des critères de sélection (y compris une norme de qualification, un test d’emploi ou un proxy) qui discrimine un candidat ou un employé ou une classe de candidats ou d’employés sur une base protégée par la loi, sous réserve de toute défense disponible.

Domaines à haut risque spécifiquesVérifications des antécédents criminels : Les employeurs ne peuvent pas utiliser les SDA pour filtrer les antécédents criminels avant une offre conditionnelle. Même après une offre, ils doivent effectuer des évaluations individualisées et ne peuvent pas se fier uniquement aux résultats automatisés.

Devoir de fournir des accommodations : Si un outil d’IA peut désavantager un candidat en raison d’un handicap ou d’une caractéristique protégée, l’employeur doit offrir une accommodation raisonnable (par exemple, des formats d’évaluation alternatifs).

Les fournisseurs tiers peuvent créer une responsabilité : Si un fournisseur ou un recruteur utilise un outil SDA en votre nom, vous pouvez toujours être légalement responsable. Les contrats devraient clarifier les responsabilités en matière de conformité et inclure des dispositions d’indemnisation.

4. Exigences en matière de documentation et de conformité

Les employeurs utilisant des SDA doivent :

  • Conserver les données pertinentes, y compris les résultats des décisions automatisées et les données démographiques, pendant au moins quatre ans
  • Tenir les dossiers séparés des dossiers du personnel
  • Effectuer et documenter des tests anti-biais sur les outils d’IA
  • Réagir de manière appropriée aux résultats des tests

5. Prochaines étapes pour les employeurs

Si les réglementations sont adoptées en Californie, les employeurs devraient :

  • Examiner tous les SDA et outils d’IA en usage – Effectuer un audit des technologies utilisées dans le recrutement, l’embauche, les promotions et la discipline.
  • Engager des conseillers juridiques ou des experts en conformité – Évaluer si les outils sont susceptibles d’avoir un impact discriminatoire ou de violer la FEHA.
  • Demander la transparence aux fournisseurs – Demander des informations sur les tests de biais, les données d’entraînement et la logique du système.
  • Mettre en œuvre des politiques de notification et d’accommodation – Informer clairement les candidats lorsque des SDA seront utilisés et comment ils peuvent demander une accommodation.
  • Utiliser une supervision humaine – Ne pas se fier exclusivement à l’IA pour les décisions d’emploi. Un humain doit examiner et approuver les décisions finales.

Si ces réglementations sont adoptées, la Californie pourrait rejoindre des juridictions comme New York, l’Illinois et le Colorado dans la régulation de l’IA au travail. Alors que le gouvernement fédéral est encore en train de développer son approche, des États comme la Californie pourraient commencer à réglementer comment l’IA peut être utilisée dans les décisions d’emploi.

Les employeurs opérant en Californie doivent traiter l’IA et l’automatisation avec la même prudence et diligence que toute autre pratique d’emploi soumise aux lois anti-discrimination.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...