Nouveaux défis législatifs pour l’IA à New York

Light bulb

Développements de l’intelligence artificielle à New York au premier trimestre 2025 : Ce que les employeurs doivent savoir sur la législation proposée et adoptée

Au cours de la première partie de 2025, New York a rejoint d’autres États, tels que le Colorado, le Connecticut, le New Jersey et le Texas, cherchant à réguler l’intelligence artificielle (IA) au niveau de l’État. Plus précisément, le 8 janvier 2025, des projets de loi axés sur l’utilisation des outils de décision basés sur l’IA ont été introduits à la fois au Sénat de New York et à l’Assemblée de l’État.

Le projet de loi sur l’IA de New York, le NY AI Act, vise à lutter contre la discrimination algorithmique en régulant et en restreignant l’utilisation de certains systèmes d’IA, y compris dans le domaine de l’emploi. Ce projet de loi permettrait également un droit d’action privé, permettant aux citoyens de poursuivre des entreprises technologiques. De plus, le New York AI Consumer Protection Act, le projet de loi A007683, modifierait la loi générale sur les affaires pour empêcher l’utilisation d’algorithmes d’IA discriminatoires contre des classes protégées, y compris dans l’emploi.

Projet de loi du Sénat 1169

Le 8 janvier 2025, la sénatrice de l’État de New York, Kristen Gonzalez, a introduit le NY AI Act car « un volume croissant de recherches montre que les systèmes d’IA déployés sans tests adéquats, supervision suffisante et garde-fous robustes peuvent nuire aux consommateurs et priver des groupes historiquement défavorisés de l’intégralité de leurs droits civils et libertés, approfondissant ainsi les inégalités ». Le NY AI Act couvrirait tous les « consommateurs », définis comme tout résident de l’État de New York, y compris les résidents qui sont employés et employeurs.

Le NY AI Act stipule que « la législature doit agir pour garantir que toutes les utilisations de l’IA, en particulier celles qui affectent des choix de vie importants, soient exemptes de biais nuisibles, protègent notre vie privée et travaillent pour le bien public ». En tant que « foyer de milliers de start-ups technologiques », New York doit prioriser l’innovation sécurisée dans le secteur de l’IA en fournissant des orientations claires pour le développement, les tests et la validation de l’IA avant le lancement d’un produit et tout au long de la vie du produit.

Ce qui distingue le NY AI Act des autres lois étatiques proposées et adoptées, c’est qu’il inclut un droit d’action privé permettant aux résidents de l’État de New York de déposer des plaintes contre les entreprises technologiques pour violations. Le projet de loi prévoit également une exécution par le procureur général de l’État. De plus, en vertu de la loi proposée, les consommateurs ont le droit de refuser la prise de décision automatisée ou de faire appel de ses résultats.

Définitions et Obligations

Le NY AI Act définit la discrimination algorithmique comme toute condition dans laquelle l’utilisation d’un système d’IA contribue à un traitement ou des impacts différentiels injustifiés, défavorisant des personnes en fonction de leur âge, race, ethnie, croyance, religion, couleur, nationalité, statut d’immigration, orientation sexuelle, identité de genre, expression de genre, statut militaire, sexe, handicap, caractéristiques génétiques prédisposantes, statut familial, statut marital, grossesse, résultats de grossesse, ou autre classification protégée par les lois étatiques ou fédérales.

Les « déployeurs » utilisant un système d’IA à haut risque pour une décision conséquente doivent respecter certaines obligations. Ils doivent informer l’utilisateur final de manière claire et conviviale qu’ils utilisent un système d’IA pour prendre des décisions conséquentes au moins cinq jours ouvrables avant l’utilisation de ce système. Le déployeur doit également permettre à l’utilisateur de refuser le processus automatisé et offrir l’opportunité d’une décision humaine. Aucun utilisateur ne peut être puni ou faire l’objet d’actions défavorables pour avoir refusé une décision par un système d’IA, et le déployeur doit rendre une décision à l’utilisateur dans un délai de 45 jours.

Audits et Sanctions

De plus, tout déployeur qui emploie un système d’IA à haut risque pour une décision conséquente doit informer l’utilisateur final dans les cinq jours suivant une décision prise entièrement par un système automatisé. Le déployeur doit alors fournir un processus d’appel pour l’utilisateur, qui doit au minimum permettre à l’utilisateur de contester formellement la décision, fournir des informations pour soutenir sa position et obtenir un examen humain significatif de la décision.

Les déployeurs doivent compléter un audit avant d’utiliser un système d’IA à haut risque, six mois après le déploiement, et au moins tous les 18 mois par la suite pour chaque année civile où un système d’IA à haut risque est en usage. Quel que soit le résultat final, les déployeurs doivent remettre tous les audits réalisés au procureur général.

En cas de violation, le procureur général peut demander une injonction pour restreindre la continuité de la violation. Le tribunal peut imposer une amende civile ne dépassant pas 20 000 $ US pour chaque violation. De plus, il existe un droit d’action privé pour toute personne lésée par une violation du NY AI Act, permettant au tribunal d’accorder des dommages-intérêts compensatoires et des frais juridiques à la partie gagnante.

Projet de loi de l’Assemblée 768

Le 8 janvier 2025, le membre de l’Assemblée d’État de New York, Alex Bores, a également introduit le Protection Act. Semblable au NY AI Act, le Protection Act cherche à empêcher l’utilisation d’algorithmes d’IA pour discriminer des classes protégées.

Le Protection Act définit la discrimination algorithmique de manière similaire et exige un audit de biais et de gouvernance consistant en une évaluation impartiale par un auditeur indépendant. Cet audit doit inclure, au minimum, le test d’un système de décision d’IA pour évaluer l’impact disparate de ce système sur les employés en raison de divers facteurs protégés.

Si adopté, à partir du 1er janvier 2027, le Protection Act obligerait chaque déployeur d’un système de décision d’IA à haut risque à utiliser un soin raisonnable pour protéger les consommateurs contre tout risque connu ou raisonnablement prévisible de discrimination algorithmique.

Loi locale du Conseil de la ville de New York Int. No. 1894-A

Bien que le NY AI Act et le Protection Act ne soient pas encore adoptés, les employeurs de la ville de New York doivent s’assurer de respecter la Loi locale Int. No. 1984-A, qui est entrée en vigueur le 5 juillet 2023. Cette loi vise à protéger les candidats à l’emploi et les employés contre les biais discriminatoires illégaux basés sur la race, l’ethnie ou le sexe lorsque les employeurs utilisent des outils de décision d’emploi automatisés (AEDT).

Cette loi exige des audits de biais et un préavis aux candidats et employés concernant l’utilisation des AEDT au moins 10 jours ouvrables à l’avance. Les résultats de l’audit de biais doivent être publiés sur le site web des employeurs et agences d’emploi pour au moins six mois après la dernière utilisation de l’AEDT pour une décision d’emploi.

Recommandations pour les employeurs

Les employeurs doivent travailler à se conformer à la Loi NYC AI existante et se préparer pour les futures législations étatiques. Ils devraient :

  • Évaluer les systèmes d’IA : Identifier les systèmes d’IA que votre entreprise développe ou déploie, en particulier ceux utilisés dans des décisions conséquentes liées à l’emploi.
  • Réviser les politiques de gestion des données : S’assurer que vos politiques de gestion des données respectent les normes de protection des données.
  • Préparer les audits : Se familiariser avec les exigences d’audit et commencer à préparer d’éventuels audits de systèmes d’IA à haut risque.
  • Développer des processus internes : Établir des processus internes pour les divulgations d’employés liées aux violations des systèmes d’IA.
  • Surveiller la législation : Rester informé des projets de loi proposés et examiner continuellement les orientations des agences fédérales.

Les avocats en droit du travail, de l’emploi et de la sécurité au travail conseillent régulièrement leurs clients sur une large gamme de préoccupations liées aux enjeux émergents dans ces domaines et sont bien positionnés pour fournir des orientations et de l’assistance sur les développements en matière d’IA.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...