Les lacunes des lois sur l’IA : Colorado et Californieh2>
Dans le monde de l’intelligence artificielle (IA), les réglementations varient considérablement selon les usages. En milieu de travail, les droits de confidentialité d’un candidat peuvent disparaître, transformant un « consommateur » avec des droits de confidentialité reconnaissables en un « candidat » ou « employé » avec des droits qui changent, voire disparaissent. Le Colorado et la Californie offrent un aperçu de cette dynamique fluctuante.p>
La situation au Coloradoh3>
La loi sur la confidentialité du Colorado définit le terme « consommateur » de manière à ne pas inclure les employés, les candidats et les acteurs commerciaux. Cela signifie que les droits d’opt-out en vertu des lois sur la confidentialité ne s’appliquent pas lors des entretiens. Toutefois, la loi sur l’IA de l’État qualifie les décisions liées à l’emploi et aux opportunités de « conséquentes » sans lier ces décisions aux droits d’opt-out des lois sur la confidentialité.p>
Bien que la loi sur l’IA informe les équipes des ressources humaines (RH) de leurs obligations, elle impose des exigences spécifiques : avant toute décision, une notification claire doit être fournie, expliquant le but et le rôle du système utilisé. Après un résultat défavorable, les employeurs doivent fournir des détails sur la raison de la décision, un chemin pour corriger les données inexactes, ainsi qu’une option d’appel qui inclut une révision humaine lorsque cela est possible.p>
Les droits fondamentaux garantis par la loi incluent : b>notificationb>, b>raisonsb>, b>correctionb> et b>appelb>. Les entreprises doivent donc être prêtes à documenter et à démontrer leur diligence raisonnable en matière de discrimination algorithmique.p>
La Californie et ses réglementations distinctesh3>
En Californie, la réglementation sur la confidentialité traite les systèmes automatisés qui prennent des décisions concernant l’emploi comme étant « significatifs ». Cela déclenche une notification pré-utilisation pour la Technologie de Prise de Décision Automatisée (ADMT), un droit d’opt-out pour ces décisions significatives, ainsi que des délais de réponse pour l’accès et les appels.p>
Si une personne choisit d’opter pour ce droit, l’utilisation de l’ADMT doit être suspendue pour cette personne dans les 15 jours ouvrables. Les règles sur les droits civiques de Californie s’appliquent également aux outils automatisés utilisés pour le recrutement, les promotions et autres actions liées au personnel, en centrant les devoirs de l’employeur sur la gestion des risques de discrimination, les tests et la documentation.p>
Dans ce contexte, les entreprises doivent naviguer entre deux régimes distincts : les règles de l’ADMT et le cadre des droits civiques, ce qui complique la conformité.p>
Les défis liés à la labellisation des droitsh3>
Un des aspects les plus déroutants est que les droits des individus varient non pas en raison des risques réels, mais selon le label qui leur est attribué. Par exemple, une personne peut commencer en tant que consommateur puis devenir candidat, ce qui active ou désactive différentes réglementations. Cela crée des lacunes pour les individus et des maux de tête pour les équipes de conformité.p>
Des solutions de contournement se glissent également dans le processus, comme l’utilisation de données pseudonymes pour éviter l’application des règles de confidentialité, tout en prenant des décisions réelles qui impactent des personnes.p>
Recommandations pour les entreprises et les législateursh3>
Pour éviter ces pièges, il est conseillé de concevoir un cadre clair qui suit les droits des personnes de manière cohérente, quels que soient les changements de statut. Les entreprises devraient établir une documentation transparente et des processus d’appel robustes.p>
Pour les législateurs, deux approches viables peuvent améliorer la situation : créer des règles spécifiques à l’IA par secteur avec des exemptions claires des obligations en matière de confidentialité, ou harmoniser les définitions afin que les individus conservent les mêmes droits fondamentaux tout au long du processus décisionnel automatisé. Ces mesures pourraient offrir aux travailleurs et aux employeurs une carte plus stable, essentielle pour naviguer dans le paysage complexe des lois sur l’IA.p>