Deux projets de loi opposés sur l’IA introduits par des législateurs démocrates et républicains
Le 23 septembre 2025, deux législateurs issus de partis opposés ont introduit des projets de loi concurrents concernant l’intelligence artificielle (IA) aux États-Unis, mettant en lumière un fossé sur la manière dont l’IA devrait être réglementée.
Le projet de loi de la représentante Yvette Clarke : Loi sur la responsabilité algorithmique
Le projet de loi proposé par Yvette Clarke, intitulé « Loi sur la responsabilité algorithmique de 2025 », vise à imposer des normes strictes pour la prise de décision automatisée dans des domaines sensibles. Ce projet de loi obligerait la Commission fédérale du commerce (FTC) à exiger des entreprises qu’elles réalisent des évaluations d’impact des systèmes d’IA avant et après leur déploiement.
Les entreprises seraient tenues de consulter des employés, des équipes éthiques, des experts externes et des défenseurs des groupes affectés lors de l’évaluation de l’impact de leurs algorithmes. Elles devraient également soumettre des rapports résumés de ces évaluations à la FTC avant le lancement d’un nouveau système et chaque année par la suite.
La FTC aurait un délai de deux ans après l’adoption de la loi pour rédiger les règles détaillées sur la manière dont ces rapports doivent être effectués. De plus, la FTC devrait établir une base de données publique où les rapports des entreprises seraient publiés, permettant aux consommateurs et aux chercheurs de voir quels algorithmes sont utilisés et quels risques ils posent.
Les entreprises qui ne se conformeraient pas pourraient faire face à des sanctions en vertu des règles sur les pratiques déloyales ou trompeuses, avec la possibilité pour les procureurs généraux des États d’intenter des poursuites au nom des résidents.
Clarke a déclaré : « Les Américains ont les mêmes libertés civiles en ligne que dans tous les autres aspects de leur vie. Mais lorsque les entreprises confient les décisions finales à des systèmes d’IA souvent entachés de biais, la réalité est que de nombreuses personnes continueront à faire face à des préjugés dans les espaces numériques. »
Le projet de loi du représentant Michael Baumgartner : Cadre national et préemption des États
À l’opposé, le projet de loi de Michael Baumgartner, intitulé « Loi sur le leadership et l’uniformité de l’intelligence artificielle américaine », cherche à codifier la stratégie en matière d’IA de l’ancien président Trump en créant un cadre national pour l’IA et en interdisant aux États d’édicter leurs propres réglementations sur l’IA pendant cinq ans.
Ce projet de loi mettrait l’accent sur le fait que les États-Unis doivent être à la pointe de l’IA grâce à un environnement d’innovation, d’investissement et de développement florissant, ainsi qu’à un cadre réglementaire flexible et spécifique au secteur.
Il exigerait également que le président soumette un plan d’action sur l’IA dans les 30 jours suivant l’adoption de la loi, ainsi que des mises à jour annuelles. Ce plan viserait à éliminer les obstacles au développement de l’IA à tous les niveaux de gouvernement, à établir des objectifs pour la recherche fédérale, l’adoption et la gestion des risques afin d’assurer une IA sûre et fiable dans les missions fédérales, et à renforcer les chaînes d’approvisionnement, la sécurité nationale et les infrastructures critiques.
Le projet de loi chercherait aussi à réduire les charges de conformité pour les petites entreprises tout en élargissant l’accès aux modèles fondamentaux, aux ressources informatiques, aux ensembles de données et à l’assistance technique. De plus, il alignerait la gestion des risques fédéraux avec les recommandations de l’Institut national des normes et de la technologie concernant l’IA.
Baumgartner a soutenu qu’un « patchwork de règles d’IA divergentes des États » découragerait l’investissement et créerait des charges de conformité inutiles. Son projet de loi permettrait des exceptions pour l’application de la loi criminelle et les politiques d’approvisionnement des États, mais interdirait autrement aux États de restreindre les systèmes d’IA dans le commerce interétatique pendant la période de moratoire de cinq ans.