Nouveaux défis législatifs pour l’IA à New York

Light bulb

Développements de l’intelligence artificielle à New York au premier trimestre 2025 : Ce que les employeurs doivent savoir sur la législation proposée et adoptée

Au cours de la première partie de 2025, New York a rejoint d’autres États, tels que le Colorado, le Connecticut, le New Jersey et le Texas, cherchant à réguler l’intelligence artificielle (IA) au niveau de l’État. Plus précisément, le 8 janvier 2025, des projets de loi axés sur l’utilisation des outils de décision basés sur l’IA ont été introduits à la fois au Sénat de New York et à l’Assemblée de l’État.

Le projet de loi sur l’IA de New York, le NY AI Act, vise à lutter contre la discrimination algorithmique en régulant et en restreignant l’utilisation de certains systèmes d’IA, y compris dans le domaine de l’emploi. Ce projet de loi permettrait également un droit d’action privé, permettant aux citoyens de poursuivre des entreprises technologiques. De plus, le New York AI Consumer Protection Act, le projet de loi A007683, modifierait la loi générale sur les affaires pour empêcher l’utilisation d’algorithmes d’IA discriminatoires contre des classes protégées, y compris dans l’emploi.

Projet de loi du Sénat 1169

Le 8 janvier 2025, la sénatrice de l’État de New York, Kristen Gonzalez, a introduit le NY AI Act car « un volume croissant de recherches montre que les systèmes d’IA déployés sans tests adéquats, supervision suffisante et garde-fous robustes peuvent nuire aux consommateurs et priver des groupes historiquement défavorisés de l’intégralité de leurs droits civils et libertés, approfondissant ainsi les inégalités ». Le NY AI Act couvrirait tous les « consommateurs », définis comme tout résident de l’État de New York, y compris les résidents qui sont employés et employeurs.

Le NY AI Act stipule que « la législature doit agir pour garantir que toutes les utilisations de l’IA, en particulier celles qui affectent des choix de vie importants, soient exemptes de biais nuisibles, protègent notre vie privée et travaillent pour le bien public ». En tant que « foyer de milliers de start-ups technologiques », New York doit prioriser l’innovation sécurisée dans le secteur de l’IA en fournissant des orientations claires pour le développement, les tests et la validation de l’IA avant le lancement d’un produit et tout au long de la vie du produit.

Ce qui distingue le NY AI Act des autres lois étatiques proposées et adoptées, c’est qu’il inclut un droit d’action privé permettant aux résidents de l’État de New York de déposer des plaintes contre les entreprises technologiques pour violations. Le projet de loi prévoit également une exécution par le procureur général de l’État. De plus, en vertu de la loi proposée, les consommateurs ont le droit de refuser la prise de décision automatisée ou de faire appel de ses résultats.

Définitions et Obligations

Le NY AI Act définit la discrimination algorithmique comme toute condition dans laquelle l’utilisation d’un système d’IA contribue à un traitement ou des impacts différentiels injustifiés, défavorisant des personnes en fonction de leur âge, race, ethnie, croyance, religion, couleur, nationalité, statut d’immigration, orientation sexuelle, identité de genre, expression de genre, statut militaire, sexe, handicap, caractéristiques génétiques prédisposantes, statut familial, statut marital, grossesse, résultats de grossesse, ou autre classification protégée par les lois étatiques ou fédérales.

Les « déployeurs » utilisant un système d’IA à haut risque pour une décision conséquente doivent respecter certaines obligations. Ils doivent informer l’utilisateur final de manière claire et conviviale qu’ils utilisent un système d’IA pour prendre des décisions conséquentes au moins cinq jours ouvrables avant l’utilisation de ce système. Le déployeur doit également permettre à l’utilisateur de refuser le processus automatisé et offrir l’opportunité d’une décision humaine. Aucun utilisateur ne peut être puni ou faire l’objet d’actions défavorables pour avoir refusé une décision par un système d’IA, et le déployeur doit rendre une décision à l’utilisateur dans un délai de 45 jours.

Audits et Sanctions

De plus, tout déployeur qui emploie un système d’IA à haut risque pour une décision conséquente doit informer l’utilisateur final dans les cinq jours suivant une décision prise entièrement par un système automatisé. Le déployeur doit alors fournir un processus d’appel pour l’utilisateur, qui doit au minimum permettre à l’utilisateur de contester formellement la décision, fournir des informations pour soutenir sa position et obtenir un examen humain significatif de la décision.

Les déployeurs doivent compléter un audit avant d’utiliser un système d’IA à haut risque, six mois après le déploiement, et au moins tous les 18 mois par la suite pour chaque année civile où un système d’IA à haut risque est en usage. Quel que soit le résultat final, les déployeurs doivent remettre tous les audits réalisés au procureur général.

En cas de violation, le procureur général peut demander une injonction pour restreindre la continuité de la violation. Le tribunal peut imposer une amende civile ne dépassant pas 20 000 $ US pour chaque violation. De plus, il existe un droit d’action privé pour toute personne lésée par une violation du NY AI Act, permettant au tribunal d’accorder des dommages-intérêts compensatoires et des frais juridiques à la partie gagnante.

Projet de loi de l’Assemblée 768

Le 8 janvier 2025, le membre de l’Assemblée d’État de New York, Alex Bores, a également introduit le Protection Act. Semblable au NY AI Act, le Protection Act cherche à empêcher l’utilisation d’algorithmes d’IA pour discriminer des classes protégées.

Le Protection Act définit la discrimination algorithmique de manière similaire et exige un audit de biais et de gouvernance consistant en une évaluation impartiale par un auditeur indépendant. Cet audit doit inclure, au minimum, le test d’un système de décision d’IA pour évaluer l’impact disparate de ce système sur les employés en raison de divers facteurs protégés.

Si adopté, à partir du 1er janvier 2027, le Protection Act obligerait chaque déployeur d’un système de décision d’IA à haut risque à utiliser un soin raisonnable pour protéger les consommateurs contre tout risque connu ou raisonnablement prévisible de discrimination algorithmique.

Loi locale du Conseil de la ville de New York Int. No. 1894-A

Bien que le NY AI Act et le Protection Act ne soient pas encore adoptés, les employeurs de la ville de New York doivent s’assurer de respecter la Loi locale Int. No. 1984-A, qui est entrée en vigueur le 5 juillet 2023. Cette loi vise à protéger les candidats à l’emploi et les employés contre les biais discriminatoires illégaux basés sur la race, l’ethnie ou le sexe lorsque les employeurs utilisent des outils de décision d’emploi automatisés (AEDT).

Cette loi exige des audits de biais et un préavis aux candidats et employés concernant l’utilisation des AEDT au moins 10 jours ouvrables à l’avance. Les résultats de l’audit de biais doivent être publiés sur le site web des employeurs et agences d’emploi pour au moins six mois après la dernière utilisation de l’AEDT pour une décision d’emploi.

Recommandations pour les employeurs

Les employeurs doivent travailler à se conformer à la Loi NYC AI existante et se préparer pour les futures législations étatiques. Ils devraient :

  • Évaluer les systèmes d’IA : Identifier les systèmes d’IA que votre entreprise développe ou déploie, en particulier ceux utilisés dans des décisions conséquentes liées à l’emploi.
  • Réviser les politiques de gestion des données : S’assurer que vos politiques de gestion des données respectent les normes de protection des données.
  • Préparer les audits : Se familiariser avec les exigences d’audit et commencer à préparer d’éventuels audits de systèmes d’IA à haut risque.
  • Développer des processus internes : Établir des processus internes pour les divulgations d’employés liées aux violations des systèmes d’IA.
  • Surveiller la législation : Rester informé des projets de loi proposés et examiner continuellement les orientations des agences fédérales.

Les avocats en droit du travail, de l’emploi et de la sécurité au travail conseillent régulièrement leurs clients sur une large gamme de préoccupations liées aux enjeux émergents dans ces domaines et sont bien positionnés pour fournir des orientations et de l’assistance sur les développements en matière d’IA.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...