État des lieux sur la législation de l’IA aux États-Unis

A chess piece representing strategy and decision-making

Législation sur l’IA aux États-Unis : Veto en Virginie, réexamen au Colorado et transformation au Texas

Le gouverneur de la Virginie, Glenn Youngkin, a récemment opposé son veto à un projet de loi qui aurait régulé les systèmes d’intelligence artificielle (IA) qualifiés de « haut risque ». Le projet de loi HB 2094, qui avait été adopté de justesse par la législature de l’État, visait à instaurer des mesures réglementaires similaires à celles établies par la loi sur l’IA du Colorado, adoptée l’année précédente.

Parallèlement, le Task Force sur l’Impact de l’IA du Colorado a exprimé des préoccupations concernant cette loi, ce qui pourrait conduire à des modifications avant sa date d’entrée en vigueur prévue pour février 2026. Au Texas, un projet de loi intitulé Texas Responsible AI Governance Act a récemment été modifié.

Les détails du veto en Virginie

La loi de la Virginie, à l’instar de la loi du Colorado, aurait imposé diverses obligations aux entreprises impliquées dans la création ou le déploiement de systèmes d’IA à haut risque influençant des décisions majeures concernant des individus dans des domaines tels que l’emploi, le prêt, la santé, le logement et l’assurance. Ces obligations incluaient la réalisation d’évaluations d’impact, la tenue de documentation technique détaillée, l’adoption de protocoles de gestion des risques et la possibilité pour les individus de revoir les décisions négatives prises par les systèmes d’IA.

Le gouverneur Youngkin a exprimé des craintes selon lesquelles le projet de loi HB 2094 aurait pu étouffer l’industrie de l’IA et la croissance économique de la Virginie. Il a également noté que les lois existantes sur la discrimination, la confidentialité, l’utilisation des données et la diffamation pouvaient déjà protéger le public des potentiels dangers liés à l’IA.

Révisions au Colorado

Bien que le gouverneur du Colorado, Jared Polis, ait signé la loi l’année dernière, il a exhorté les législateurs à évaluer et à fournir des clarifications et révisions supplémentaires à la loi sur l’IA. Le mois dernier, le Task Force sur l’IA a publié un rapport contenant ses recommandations. Ce rapport a identifié des domaines potentiels où la loi pourrait être clarifiée ou améliorée, divisant ces domaines en quatre catégories :

  1. Consensus sur les changements à apporter.
  2. Consensus nécessitant plus de temps et d’engagement des parties prenantes.
  3. Consensus dépendant de la résolution de multiples questions interconnectées.
  4. Désaccord ferme.

La première catégorie ne contient que quelques modifications relativement mineures. La seconde, par exemple, concerne la clarification de la définition des « décisions conséquentes » – un point important étant donné que les outils d’IA utilisés pour prendre ces décisions sont ceux qui sont soumis à la loi. La troisième catégorie aborde la définition de la « discrimination algorithmique » et les obligations des développeurs et déployeurs pour la prévenir. Enfin, la quatrième catégorie pose la question de savoir s’il faut inclure une opportunité de remédier aux incidents de non-conformité.

Transformations au Texas

Le Texas, comme le Colorado et la Virginie, envisage des législations qui traitent des systèmes d’IA à haut risque qui représentent un « facteur substantiel » dans des décisions conséquentes concernant la vie des individus. Ce projet a récemment été modifié pour supprimer le concept de discrimination algorithmique et, dans sa rédaction actuelle, interdit les systèmes d’IA développés ou déployés avec l’« intention de discriminer ». Il a également été précisé que l’impact disparate à lui seul n’est pas suffisant pour prouver qu’il y avait une intention de discriminer.

La loi proposée au Texas est similaire à la législation sur l’IA de l’Utah, qui est entrée en vigueur le 1er mai 2024, dans la mesure où elle exigerait un avis si des individus interagissaient avec des IA (bien que cette obligation ne s’applique qu’aux agences gouvernementales). Enfin, la loi interdirait également le développement intentionnel de systèmes d’IA visant à « inciter à la violence ou à la criminalité ». Ce projet de loi a été déposé le 14 mars et, au moment de la rédaction de cet article, était en attente au sein de la Commission de la Chambre.

Conclusion

Le veto de HB 2094 met en lumière le parcours complexe vers une régulation complète de l’IA au niveau des États. Nous anticipons des actions continues au niveau des États alors que les législatures travaillent à établir un consensus sur la gouvernance de l’IA. À titre de rappel, des lois sur l’IA sont déjà en vigueur, se concentrant sur divers aspects de l’IA à New York, en Californie, en Illinois et au Tennessee, avec des législations adoptées devant entrer en vigueur à différentes périodes entre 2024 et 2026. De plus, des projets de loi sont actuellement en attente dans au moins 17 États.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...