Efforts des États pour Réguler l’Utilisation de l’IA dans le Recrutement
Les législateurs des États-Unis s’efforcent de faire adopter des lois régulant l’utilisation de l’IA dans les décisions d’embauche, malgré l’opposition de l’industrie technologique et de l’administration Trump.
Contexte Légal et Opposition
Des États comme New York et Texas ont proposé des mesures visant à obliger les employeurs à atténuer les biais potentiels causés par les outils de recrutement basés sur l’IA. Ces mesures incluent également des exigences de divulgation et d’appel des décisions générées par l’IA pour les candidats à un emploi.
Malgré la résistance d’une industrie technologique bien financée, qui a mis de côté certaines législations, le mouvement pour une régulation demeure fort. Les législateurs, comme la déléguée de l’État de Virginie, Michelle Maldonado, expriment la nécessité de trouver des approches pratiques, même si leur législation sur l’IA a été vetoée par le gouverneur.
Le plan d’action de l’ancien président Donald Trump a inclus des menaces de réduction de financement fédéral et la possibilité d’une préemption par la Commission fédérale des communications pour les lois des États jugées trop restrictives.
Exemples de Réglementations
Le Colorado a adopté la loi sur les biais liés à l’IA la plus large à ce jour, mais les législateurs ont voté en août pour la retarder et la réviser avant sa mise en vigueur. Le sénateur du Connecticut, James Maroney, a suggéré que même les législateurs des États démocrates pourraient être prêts à restreindre leur approche en 2026, en se concentrant soit sur des restrictions spécifiques à l’industrie, soit sur la transparence.
La transparence impliquerait que les employeurs doivent informer les candidats et les employés de l’utilisation des outils d’IA, mais sans exiger des audits de biais ou des plans de gestion des risques détaillés.
Détails sur la Transparence
Les détails des lois sur la transparence peuvent varier considérablement d’un État à l’autre. Par exemple, une loi de l’Illinois entrera en vigueur le 1er janvier 2026, exigeant que les employeurs notifient les travailleurs lorsqu’ils utilisent l’IA pour des décisions d’embauche, sans préciser ce que cette notification doit inclure.
En revanche, le Colorado a envisagé un Acte de transparence sur l’IA qui aurait exigé des entreprises qu’elles informent les individus des facteurs pris en compte par les outils d’IA avant de les rejeter, offrant également la possibilité de corriger des données inexactes.
Réactions de l’Industrie Technologique
Des représentants de l’industrie, comme David Edmonson de l’association TechNet, se montrent encourageants face à une approche axée sur la transparence, la considérant comme une voie plus praticable que certaines exigences plus contraignantes.
Cependant, certains législateurs, comme la représentante du Colorado Brianna Titone, soutiennent que l’absence d’une responsabilité partagée pour les développeurs de technologie dans les réclamations de discrimination limite l’efficacité de la transparence.
Menace de Préemption
La façon dont le Congrès pourrait aborder la préemption dans les futures législations sur l’intelligence artificielle reste incertaine, ce qui crée des risques pour les États qui avancent des protections contre l’IA. Le plan de Trump conditionne les subventions fédérales à un « climat réglementaire » en matière d’IA des États.
Les législateurs, comme Maldonado, prévoient de réintroduire leur législation lors de la prochaine session, sans craindre de préemption, affirmant qu’il est essentiel de mettre en place des mesures même si elles sont éventuellement annulées.