Texas met en place une loi innovante sur l’IA pour la protection des consommateurs

A checklist illustrating compliance and the need for clear guidelines in AI usage.

Le Texas adopte une loi sur l’IA : exigences de divulgation, de consentement et de conformité en vigueur en 2026

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la House Bill 149, mettant en place la Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Cette loi établit l’un des cadres réglementaires les plus complets au niveau des États pour l’intelligence artificielle (IA). TRAIGA impose des exigences de divulgation, de consentement et de conformité aux développeurs, déployeurs et entités gouvernementales utilisant des systèmes d’IA. La loi entrera en vigueur le 1er janvier 2026.

TRAIGA définit un système d’intelligence artificielle comme tout système basé sur une machine qui utilise des entrées pour générer du contenu, des décisions, des prévisions ou des recommandations pouvant influencer des environnements physiques ou virtuels. L’objectif de cette loi est de promouvoir le développement et l’utilisation responsables de l’IA tout en protégeant les individus des risques prévisibles grâce à une supervision structurée, des exigences de divulgation et de nouveaux programmes tels qu’un sandbox réglementaire.

Principales dispositions de la TRAIGA

  • Protection des consommateurs. La loi interdit l’utilisation de modèles d’IA qui discriminent intentionnellement des classes protégées, portent atteinte aux droits constitutionnels ou incitent à des dommages. De plus, les entités gouvernementales ne peuvent pas utiliser l’IA pour identifier des individus par des données biométriques sans consentement éclairé ou pour attribuer des scores sociaux basés sur des comportements ou des caractéristiques personnelles.
  • Directives de divulgation. Toute entité gouvernementale ou commerciale déployant un système d’IA destiné à interagir avec les consommateurs doit fournir une divulgation claire et évidente en langage simple. Cette divulgation doit être faite avant ou au moment de l’interaction et ne peut pas utiliser de designs d’interface trompeurs connus sous le nom de « dark patterns ».
  • Programme de sandbox réglementaire pour l’IA. Sous réserve d’approbation par le Département des ressources d’information et les agences concernées, une personne peut tester un programme d’IA dans un environnement contrôlé sans être licenciée en vertu des lois texanes. Pendant cette période de test, le procureur général ne peut pas déposer ou poursuivre des charges contre un participant pour une violation survenant durant cette période.
  • Protections. Les entités qui se conforment substantiellement à des cadres de gestion des risques reconnus, tels que le cadre de gestion des risques de l’IA de NIST, ou qui détectent des violations par le biais d’audits internes ou de tests d’adversaires peuvent bénéficier d’une protection contre l’application de la loi.
  • Application et pénalités civiles. Le procureur général du Texas détient l’autorité exclusive d’application. Les pénalités civiles varient de 10 000 à 200 000 dollars par violation, avec des pénalités journalières pour non-conformité continue.

Mise en pratique

Avec la TRAIGA, le Texas devient le deuxième État à adopter un cadre réglementaire complet sur l’IA, rejoignant le Colorado, qui a mis en place sa loi sur l’IA en 2024. Alors que les États continuent d’adopter des approches divergentes en matière de réglementation de l’IA, comme le récent veto du projet de loi sur l’IA en Virginie, les acteurs du marché doivent surveiller de près l’évolution de ce patchwork de réglementations au niveau des États pour évaluer les obligations de conformité, ajuster les stratégies de gestion des risques et planifier les impacts opérationnels à travers les juridictions.

Articles

Retard dans la publication des règles de l’IA : Vers une mise en conformité d’ici fin 2025

Un code de conduite visant à aider les entreprises à se conformer aux règles de l'Union européenne sur l'intelligence artificielle ne sera peut-être publié qu'à la fin de 2025. La Commission a...

Texas met en place une loi innovante sur l’IA pour la protection des consommateurs

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la loi House Bill 149, établissant le Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Cette loi impose des exigences de...

Changement de cap : La sécurité de l’IA face à l’innovation

La récente décision du secrétaire au Commerce des États-Unis, Howard Lutnick, de rebrander l'Institut américain de la sécurité de l'IA (AISI) en tant que Centre pour les normes et l'innovation en IA...

L’IA responsable : moteur d’innovation et de confiance

NetApp soutient l'IA responsable en intégrant des principes éthiques et des structures de gouvernance dans ses cadres de gouvernance de l'IA. L'entreprise met l'accent sur l'importance de comprendre...

Gouvernance des données : clé de l’IA dans les télécommunications

L'intelligence artificielle (IA) transforme déjà le secteur des télécommunications en révolutionnant la manière dont les opérateurs fonctionnent et offrent de la valeur. Cependant, cette révolution...

Maroc : Leader précoce dans la gouvernance mondiale de l’IA

Le Maroc a pris les devants parmi les acteurs influents pour faire progresser la gouvernance mondiale de l'intelligence artificielle (IA), selon l'ambassadeur Omar Hilale. Le Royaume aspire à...

La bataille pour la régulation de l’IA : enjeux et perspectives

La lutte pour savoir qui régule l'IA est loin d'être terminée, avec des propositions législatives qui pourraient avoir un impact significatif sur la réglementation des modèles et des applications d'IA...

Préparer l’Industrie Pharmaceutique à l’Intelligence Artificielle

L'intelligence artificielle est sur le point de transformer chaque aspect de l'industrie pharmaceutique, de la découverte de molécules aux essais cliniques et au-delà. Cependant, dans un domaine où...

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...