Réglementation de l’IA : les États s’adaptent face à la résistance fédérale

A broken chain

Efforts des États pour Réguler l’Utilisation de l’IA dans le Recrutement

Les législateurs des États-Unis s’efforcent de faire adopter des lois régulant l’utilisation de l’IA dans les décisions d’embauche, malgré l’opposition de l’industrie technologique et de l’administration Trump.

Contexte Légal et Opposition

Des États comme New York et Texas ont proposé des mesures visant à obliger les employeurs à atténuer les biais potentiels causés par les outils de recrutement basés sur l’IA. Ces mesures incluent également des exigences de divulgation et d’appel des décisions générées par l’IA pour les candidats à un emploi.

Malgré la résistance d’une industrie technologique bien financée, qui a mis de côté certaines législations, le mouvement pour une régulation demeure fort. Les législateurs, comme la déléguée de l’État de Virginie, Michelle Maldonado, expriment la nécessité de trouver des approches pratiques, même si leur législation sur l’IA a été vetoée par le gouverneur.

Le plan d’action de l’ancien président Donald Trump a inclus des menaces de réduction de financement fédéral et la possibilité d’une préemption par la Commission fédérale des communications pour les lois des États jugées trop restrictives.

Exemples de Réglementations

Le Colorado a adopté la loi sur les biais liés à l’IA la plus large à ce jour, mais les législateurs ont voté en août pour la retarder et la réviser avant sa mise en vigueur. Le sénateur du Connecticut, James Maroney, a suggéré que même les législateurs des États démocrates pourraient être prêts à restreindre leur approche en 2026, en se concentrant soit sur des restrictions spécifiques à l’industrie, soit sur la transparence.

La transparence impliquerait que les employeurs doivent informer les candidats et les employés de l’utilisation des outils d’IA, mais sans exiger des audits de biais ou des plans de gestion des risques détaillés.

Détails sur la Transparence

Les détails des lois sur la transparence peuvent varier considérablement d’un État à l’autre. Par exemple, une loi de l’Illinois entrera en vigueur le 1er janvier 2026, exigeant que les employeurs notifient les travailleurs lorsqu’ils utilisent l’IA pour des décisions d’embauche, sans préciser ce que cette notification doit inclure.

En revanche, le Colorado a envisagé un Acte de transparence sur l’IA qui aurait exigé des entreprises qu’elles informent les individus des facteurs pris en compte par les outils d’IA avant de les rejeter, offrant également la possibilité de corriger des données inexactes.

Réactions de l’Industrie Technologique

Des représentants de l’industrie, comme David Edmonson de l’association TechNet, se montrent encourageants face à une approche axée sur la transparence, la considérant comme une voie plus praticable que certaines exigences plus contraignantes.

Cependant, certains législateurs, comme la représentante du Colorado Brianna Titone, soutiennent que l’absence d’une responsabilité partagée pour les développeurs de technologie dans les réclamations de discrimination limite l’efficacité de la transparence.

Menace de Préemption

La façon dont le Congrès pourrait aborder la préemption dans les futures législations sur l’intelligence artificielle reste incertaine, ce qui crée des risques pour les États qui avancent des protections contre l’IA. Le plan de Trump conditionne les subventions fédérales à un « climat réglementaire » en matière d’IA des États.

Les législateurs, comme Maldonado, prévoient de réintroduire leur législation lors de la prochaine session, sans craindre de préemption, affirmant qu’il est essentiel de mettre en place des mesures même si elles sont éventuellement annulées.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...