Le Texas adopte une loi sur l’IA : exigences de divulgation, de consentement et de conformité en vigueur en 2026
Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la House Bill 149, mettant en place la Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Cette loi établit l’un des cadres réglementaires les plus complets au niveau des États pour l’intelligence artificielle (IA). TRAIGA impose des exigences de divulgation, de consentement et de conformité aux développeurs, déployeurs et entités gouvernementales utilisant des systèmes d’IA. La loi entrera en vigueur le 1er janvier 2026.
TRAIGA définit un système d’intelligence artificielle comme tout système basé sur une machine qui utilise des entrées pour générer du contenu, des décisions, des prévisions ou des recommandations pouvant influencer des environnements physiques ou virtuels. L’objectif de cette loi est de promouvoir le développement et l’utilisation responsables de l’IA tout en protégeant les individus des risques prévisibles grâce à une supervision structurée, des exigences de divulgation et de nouveaux programmes tels qu’un sandbox réglementaire.
Principales dispositions de la TRAIGA
- Protection des consommateurs. La loi interdit l’utilisation de modèles d’IA qui discriminent intentionnellement des classes protégées, portent atteinte aux droits constitutionnels ou incitent à des dommages. De plus, les entités gouvernementales ne peuvent pas utiliser l’IA pour identifier des individus par des données biométriques sans consentement éclairé ou pour attribuer des scores sociaux basés sur des comportements ou des caractéristiques personnelles.
- Directives de divulgation. Toute entité gouvernementale ou commerciale déployant un système d’IA destiné à interagir avec les consommateurs doit fournir une divulgation claire et évidente en langage simple. Cette divulgation doit être faite avant ou au moment de l’interaction et ne peut pas utiliser de designs d’interface trompeurs connus sous le nom de « dark patterns ».
- Programme de sandbox réglementaire pour l’IA. Sous réserve d’approbation par le Département des ressources d’information et les agences concernées, une personne peut tester un programme d’IA dans un environnement contrôlé sans être licenciée en vertu des lois texanes. Pendant cette période de test, le procureur général ne peut pas déposer ou poursuivre des charges contre un participant pour une violation survenant durant cette période.
- Protections. Les entités qui se conforment substantiellement à des cadres de gestion des risques reconnus, tels que le cadre de gestion des risques de l’IA de NIST, ou qui détectent des violations par le biais d’audits internes ou de tests d’adversaires peuvent bénéficier d’une protection contre l’application de la loi.
- Application et pénalités civiles. Le procureur général du Texas détient l’autorité exclusive d’application. Les pénalités civiles varient de 10 000 à 200 000 dollars par violation, avec des pénalités journalières pour non-conformité continue.
Mise en pratique
Avec la TRAIGA, le Texas devient le deuxième État à adopter un cadre réglementaire complet sur l’IA, rejoignant le Colorado, qui a mis en place sa loi sur l’IA en 2024. Alors que les États continuent d’adopter des approches divergentes en matière de réglementation de l’IA, comme le récent veto du projet de loi sur l’IA en Virginie, les acteurs du marché doivent surveiller de près l’évolution de ce patchwork de réglementations au niveau des États pour évaluer les obligations de conformité, ajuster les stratégies de gestion des risques et planifier les impacts opérationnels à travers les juridictions.