Régulations de l’IA : un duel entre États et gouvernement fédéral

A digital clock indicating time efficiency through AI solutions.

AI dans le lieu de travail : Les entreprises se préparent à de nouvelles règles

Les entreprises font face à un paysage en évolution concernant l’utilisation de l’intelligence artificielle (IA) dans le lieu de travail, alors que les États renforcent leurs règles tandis que le gouvernement fédéral pousse à la déréglementation. Cette dynamique crée un conflit potentiel sur les lois relatives à l’embauche et aux biais.

Le président Donald Trump a entrepris de déréglementer l’IA au niveau fédéral, mais plusieurs États tels que la Californie, New York, Connecticut et Texas envisagent cette année d’adopter des lois pour réguler l’utilisation de l’IA dans le milieu professionnel.

Propositions législatives

Les différentes propositions législatives désignent tout système d’IA utilisé pour l’embauche et le licenciement comme « à haut risque », ce qui les soumet à des exigences particulières. Cela pourrait inclure l’obligation de divulguer l’usage de l’IA aux candidats à un emploi et de limiter le recours à la prise de décision automatisée dans toute action d’emploi significative.

Cependant, la mise en œuvre de ces nouvelles lois dépendra de la manière dont les autorités les appliqueront. Reena Richtermeyer, avocate chez CM Law, a souligné que légiférer est une chose, mais l’appliquer en est une autre. Elle a noté que certaines législations pourraient être vagues et difficiles à comprendre.

L’importance de l’application des lois

Richtermeyer a suggéré que les premiers cas d’application significatifs, que ce soit au niveau étatique ou fédéral, définiront la manière dont les entreprises prennent au sérieux les lois sur l’IA. Le principal objectif cette année est d’obtenir l’adoption de quelque chose dans une législature d’État.

En Californie, par exemple, le No Robo Bosses Act, introduit le 6 mars, vise à interdire aux employeurs de se fier exclusivement à l’IA pour les décisions d’embauche, de promotion et de licenciement sans supervision humaine. Jerry McNerney, sénateur d’État, a déclaré que « l’IA doit rester un outil contrôlé par les humains, et non l’inverse. »

Perspectives des entreprises

Selon David Trier, vice-président de produit chez ModelOp, les entreprises doivent tenir compte des pratiques que ces projets de loi cherchent à établir, car elles seront bientôt affectées. Toute entreprise faisant des affaires dans un État régulé par l’IA devra se conformer à la loi de cet État.

Les ambitions de Trump

Parallèlement, dans un précédent décret exécutif sur l’IA, Trump a appelé à éliminer les obstacles, à réduire la réglementation et à supprimer toute chose qui entrave le développement de l’IA. L’administration Trump a également sollicité le public pour partager ses idées sur la politique de l’IA.

La Commission pour l’égalité des chances en matière d’emploi, sous l’administration de Joe Biden, avait précisé que les lois fédérales existantes sur la discrimination en matière d’emploi pourraient être utilisées pour protéger contre l’IA.

Risques potentiels

Cependant, Robert Taylor, avocat chez Carstens, Allen & Gourley, a averti que ces nouvelles lois étatiques sur l’IA passent d’un concept juridique bien défini de « discrimination » à un concept plus ambigu de « biais » dans les décisions d’emploi. Cette évolution pourrait exposer les entreprises à une responsabilité plus large sous des normes plus faciles à prouver que celles requises par le droit traditionnel de la discrimination.

Un standard de biais pourrait ne pas reconnaître la possibilité que l’IA améliore l’équité. Taylor a noté que « juste parce que c’est différent, cela ne signifie pas que c’est pire. » L’IA pourrait en fait être meilleure si elle élimine le biais humain dans le processus décisionnel.

Conclusion

Alors que les débats se poursuivent sur la régulation de l’IA dans le milieu de travail, il est clair que les entreprises doivent naviguer dans un environnement complexe où les lois évoluent rapidement. Les implications de ces lois, tant au niveau étatique que fédéral, pourraient avoir des conséquences significatives sur la façon dont l’IA est intégrée dans les processus d’embauche et de gestion des ressources humaines.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...