La réglementation de l’IA aux États-Unis s’intensifie, mais il devient de plus en plus difficile de suivre
La réglementation de l’IA est un sujet brûlant aux États-Unis, avec une prolifération des lois sur l’IA à travers les États, créant un patchwork complexe que les entreprises doivent naviguer pour rester conformes et opérer légalement leurs systèmes d’IA.
Une vague de lois sur l’IA
Les législateurs des États-Unis ont introduit près de 700 projets de loi liés à l’IA en 2024, répartis sur 45 États. Parmi ces projets de loi, 113 ont été adoptés en loi, une avancée significative pour une IA véritablement responsable et éthique. Cependant, cela représente également un défi réel pour les entreprises, car une gouvernance de l’IA fragmentée complique l’environnement juridique.
Des États comme Californie, Colorado, Utah, Texas et Tennessee ouvrent la voie en adoptant une législation complète pour réguler les systèmes d’IA, tandis que d’autres, comme New York, Illinois et Virginie, avancent avec des réglementations ciblées et spécifiques à des secteurs.
Le patchwork réglementaire émergent
Les lois telles que le Projet de loi 2013 de l’Assemblée de Californie et le Projet de loi 942 du Sénat, qui entreront en vigueur en 2026, imposent de strictes exigences de transparence et de responsabilité sur les entreprises déployant des IA dans le secteur privé. Le nouveau Acte sur l’IA du Colorado exige des évaluations d’impact et une supervision pour les systèmes d’IA « à haut risque ».
Utah adopte une approche distinctive avec son Acte sur la politique de l’intelligence artificielle, établissant des mesures de responsabilité au niveau de l’État et un bureau de supervision. Le ELVIS Act du Tennessee protège les droits de voix et de ressemblance contre les abus de l’IA générative. De manière surprenante, le Texas a introduit ce qui pourrait être la réglementation étatique la plus expansive de l’IA si la version actuelle devient loi.
L’incertitude réglementaire comme multiplicateur de risques
La diversité et la rapidité de la réglementation de l’IA présentent des risques de conformité considérables pour les entreprises. Une entreprise peut déployer un chatbot IA pour les ressources humaines qui est conforme dans un État mais en violation dans un autre. Les lois définissant l’IA « à haut risque » ou exigeant des divulgations et des pistes d’audit varient non seulement en contenu et en terminologie, mais aussi en mécanismes d’application.
Ce retard entre l’innovation et la supervision augmente les chances que les entreprises soient prises au dépourvu lorsque de nouvelles lois entrent en vigueur. Les systèmes d’IA déjà déployés peuvent nécessiter des ajustements rétroactifs, des audits ou des retraits, notamment s’ils manquent de documentation sur les données de formation, l’atténuation des biais ou l’explicabilité.
La gouvernance de l’IA : au-delà des sentiments publics, il s’agit de fonctionner légalement
Malgré des sentiments variés envers l’IA, une majorité des adultes américains (55%) et des experts en IA (57%) souhaitent plus de contrôle sur son utilisation. La réglementation proactive signale un leadership responsable, construit la confiance des clients et réduit l’exposition aux risques.
Les entreprises qui investissent dès maintenant dans des pratiques d’IA responsables — explicabilité, équité et supervision humaine — seront non seulement favorisées par le public, mais également mieux positionnées pour se conformer à la législation sur l’IA à mesure qu’elle se développe.
La nécessité de se tenir à jour
Suivre l’évolution des législations devient un véritable emploi. De plus en plus d’entreprises recrutent des directeurs de l’IA et des équipes de gouvernance de l’IA pour gérer ces nouveaux développements. Des outils avancés émergent pour aider les organisations à rester à jour avec les réglementations liées à l’IA.
Ces technologies peuvent créer des cadres qui déploient automatiquement des cas de test pour l’IA, régulièrement mis à jour en fonction des nouvelles réglementations. Elles peuvent être utilisées pour tester des modèles et pour un suivi régulier en production, fournissant des preuves continues que l’IA fonctionne équitablement.
En conclusion, la réglementation de l’IA ne peut pas prospérer dans un vide réglementaire. Les nouvelles lois reflètent une compréhension croissante des facteurs de risque sociétaux liés à l’IA et la nécessité de les atténuer. Pour les entreprises, le coût d’ignorer ces développements est élevé. Rester en avance sur la courbe réglementaire n’est pas seulement une question de construire des systèmes d’IA résilients et dignes de confiance — c’est une question de fonctionner légalement.