État des lieux sur la législation de l’IA aux États-Unis

A chess piece representing strategy and decision-making

Législation sur l’IA aux États-Unis : Veto en Virginie, réexamen au Colorado et transformation au Texas

Le gouverneur de la Virginie, Glenn Youngkin, a récemment opposé son veto à un projet de loi qui aurait régulé les systèmes d’intelligence artificielle (IA) qualifiés de « haut risque ». Le projet de loi HB 2094, qui avait été adopté de justesse par la législature de l’État, visait à instaurer des mesures réglementaires similaires à celles établies par la loi sur l’IA du Colorado, adoptée l’année précédente.

Parallèlement, le Task Force sur l’Impact de l’IA du Colorado a exprimé des préoccupations concernant cette loi, ce qui pourrait conduire à des modifications avant sa date d’entrée en vigueur prévue pour février 2026. Au Texas, un projet de loi intitulé Texas Responsible AI Governance Act a récemment été modifié.

Les détails du veto en Virginie

La loi de la Virginie, à l’instar de la loi du Colorado, aurait imposé diverses obligations aux entreprises impliquées dans la création ou le déploiement de systèmes d’IA à haut risque influençant des décisions majeures concernant des individus dans des domaines tels que l’emploi, le prêt, la santé, le logement et l’assurance. Ces obligations incluaient la réalisation d’évaluations d’impact, la tenue de documentation technique détaillée, l’adoption de protocoles de gestion des risques et la possibilité pour les individus de revoir les décisions négatives prises par les systèmes d’IA.

Le gouverneur Youngkin a exprimé des craintes selon lesquelles le projet de loi HB 2094 aurait pu étouffer l’industrie de l’IA et la croissance économique de la Virginie. Il a également noté que les lois existantes sur la discrimination, la confidentialité, l’utilisation des données et la diffamation pouvaient déjà protéger le public des potentiels dangers liés à l’IA.

Révisions au Colorado

Bien que le gouverneur du Colorado, Jared Polis, ait signé la loi l’année dernière, il a exhorté les législateurs à évaluer et à fournir des clarifications et révisions supplémentaires à la loi sur l’IA. Le mois dernier, le Task Force sur l’IA a publié un rapport contenant ses recommandations. Ce rapport a identifié des domaines potentiels où la loi pourrait être clarifiée ou améliorée, divisant ces domaines en quatre catégories :

  1. Consensus sur les changements à apporter.
  2. Consensus nécessitant plus de temps et d’engagement des parties prenantes.
  3. Consensus dépendant de la résolution de multiples questions interconnectées.
  4. Désaccord ferme.

La première catégorie ne contient que quelques modifications relativement mineures. La seconde, par exemple, concerne la clarification de la définition des « décisions conséquentes » – un point important étant donné que les outils d’IA utilisés pour prendre ces décisions sont ceux qui sont soumis à la loi. La troisième catégorie aborde la définition de la « discrimination algorithmique » et les obligations des développeurs et déployeurs pour la prévenir. Enfin, la quatrième catégorie pose la question de savoir s’il faut inclure une opportunité de remédier aux incidents de non-conformité.

Transformations au Texas

Le Texas, comme le Colorado et la Virginie, envisage des législations qui traitent des systèmes d’IA à haut risque qui représentent un « facteur substantiel » dans des décisions conséquentes concernant la vie des individus. Ce projet a récemment été modifié pour supprimer le concept de discrimination algorithmique et, dans sa rédaction actuelle, interdit les systèmes d’IA développés ou déployés avec l’« intention de discriminer ». Il a également été précisé que l’impact disparate à lui seul n’est pas suffisant pour prouver qu’il y avait une intention de discriminer.

La loi proposée au Texas est similaire à la législation sur l’IA de l’Utah, qui est entrée en vigueur le 1er mai 2024, dans la mesure où elle exigerait un avis si des individus interagissaient avec des IA (bien que cette obligation ne s’applique qu’aux agences gouvernementales). Enfin, la loi interdirait également le développement intentionnel de systèmes d’IA visant à « inciter à la violence ou à la criminalité ». Ce projet de loi a été déposé le 14 mars et, au moment de la rédaction de cet article, était en attente au sein de la Commission de la Chambre.

Conclusion

Le veto de HB 2094 met en lumière le parcours complexe vers une régulation complète de l’IA au niveau des États. Nous anticipons des actions continues au niveau des États alors que les législatures travaillent à établir un consensus sur la gouvernance de l’IA. À titre de rappel, des lois sur l’IA sont déjà en vigueur, se concentrant sur divers aspects de l’IA à New York, en Californie, en Illinois et au Tennessee, avec des législations adoptées devant entrer en vigueur à différentes périodes entre 2024 et 2026. De plus, des projets de loi sont actuellement en attente dans au moins 17 États.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...