Texas met en place une loi innovante sur l’IA pour la protection des consommateurs

A checklist illustrating compliance and the need for clear guidelines in AI usage.

Le Texas adopte une loi sur l’IA : exigences de divulgation, de consentement et de conformité en vigueur en 2026

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la House Bill 149, mettant en place la Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Cette loi établit l’un des cadres réglementaires les plus complets au niveau des États pour l’intelligence artificielle (IA). TRAIGA impose des exigences de divulgation, de consentement et de conformité aux développeurs, déployeurs et entités gouvernementales utilisant des systèmes d’IA. La loi entrera en vigueur le 1er janvier 2026.

TRAIGA définit un système d’intelligence artificielle comme tout système basé sur une machine qui utilise des entrées pour générer du contenu, des décisions, des prévisions ou des recommandations pouvant influencer des environnements physiques ou virtuels. L’objectif de cette loi est de promouvoir le développement et l’utilisation responsables de l’IA tout en protégeant les individus des risques prévisibles grâce à une supervision structurée, des exigences de divulgation et de nouveaux programmes tels qu’un sandbox réglementaire.

Principales dispositions de la TRAIGA

  • Protection des consommateurs. La loi interdit l’utilisation de modèles d’IA qui discriminent intentionnellement des classes protégées, portent atteinte aux droits constitutionnels ou incitent à des dommages. De plus, les entités gouvernementales ne peuvent pas utiliser l’IA pour identifier des individus par des données biométriques sans consentement éclairé ou pour attribuer des scores sociaux basés sur des comportements ou des caractéristiques personnelles.
  • Directives de divulgation. Toute entité gouvernementale ou commerciale déployant un système d’IA destiné à interagir avec les consommateurs doit fournir une divulgation claire et évidente en langage simple. Cette divulgation doit être faite avant ou au moment de l’interaction et ne peut pas utiliser de designs d’interface trompeurs connus sous le nom de « dark patterns ».
  • Programme de sandbox réglementaire pour l’IA. Sous réserve d’approbation par le Département des ressources d’information et les agences concernées, une personne peut tester un programme d’IA dans un environnement contrôlé sans être licenciée en vertu des lois texanes. Pendant cette période de test, le procureur général ne peut pas déposer ou poursuivre des charges contre un participant pour une violation survenant durant cette période.
  • Protections. Les entités qui se conforment substantiellement à des cadres de gestion des risques reconnus, tels que le cadre de gestion des risques de l’IA de NIST, ou qui détectent des violations par le biais d’audits internes ou de tests d’adversaires peuvent bénéficier d’une protection contre l’application de la loi.
  • Application et pénalités civiles. Le procureur général du Texas détient l’autorité exclusive d’application. Les pénalités civiles varient de 10 000 à 200 000 dollars par violation, avec des pénalités journalières pour non-conformité continue.

Mise en pratique

Avec la TRAIGA, le Texas devient le deuxième État à adopter un cadre réglementaire complet sur l’IA, rejoignant le Colorado, qui a mis en place sa loi sur l’IA en 2024. Alors que les États continuent d’adopter des approches divergentes en matière de réglementation de l’IA, comme le récent veto du projet de loi sur l’IA en Virginie, les acteurs du marché doivent surveiller de près l’évolution de ce patchwork de réglementations au niveau des États pour évaluer les obligations de conformité, ajuster les stratégies de gestion des risques et planifier les impacts opérationnels à travers les juridictions.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...