Le Texas : Le Prochain État à Réguler l’IA ? Ce Que Vous Devez Savoir sur la Nouvelle Loi sur l’IA

Le Texas a récemment fait la une des journaux en adoptant la Loi de Gouvernance de l’Intelligence Artificielle Responsable du Texas (TRAIGA), une législation qui vise à établir des garde-fous pour l’utilisation de l’IA au travail, tout en évitant d’imposer des charges significatives aux employeurs. Si le gouverneur Abbott approuve ce projet de loi, le Texas rejoindra des États comme le Colorado et l’Illinois en matière de régulation de l’IA à partir du 1er janvier 2026.

Contexte Rapide sur la Régulation de l’IA au Texas

Les choses ont pris un tournant surprenant fin de l’année dernière lorsque le représentant d’État Giovanni Capriglione (R) a introduit un projet de loi novateur visant à obliger les employeurs texans à se conformer à des normes sur l’IA parmi les plus complètes au niveau national. Cependant, le HB 1709 n’a pas réussi à sortir de la commission. En mars, Capriglione a introduit une version beaucoup plus édulcorée de son projet de loi, qui a finalement été adoptée à Austin.

Les 7 Principales Innovations de la Nouvelle Loi Texane sur l’IA

Voici les sept principales mesures qui entreront en vigueur si le gouverneur Abbott approuve le HB 149 :

1. Clarification des Règles de Discrimination en IA

Il sera illégal de développer ou de déployer des systèmes d’IA avec l’intention de discriminer illégalement des classes protégées sous la loi de l’État (comme la race, la couleur, le sexe, la religion, le handicap, etc.). Bien que cela semble être un pas vers la régulation, la loi clarifie simplement que l’IA ne peut pas être utilisée pour mener à bien des discriminations intentionnelles, ce qui était déjà le cas.

2. Interdiction des Usages Nocifs et Manipulatifs de l’IA

La nouvelle loi texane interdira les outils de manipulation du comportement humain conçus pour inciter à l’automutilation, à la violence ou à des comportements criminels. Elle interdit également d’utiliser l’IA pour réaliser un score social, classant les individus sur la base de leur comportement ou de leurs caractéristiques.

3. Transparence Gouvernementale – Mais Pas pour les Entreprises Privées

Les agences gouvernementales devront informer les consommateurs lorsqu’ils interagissent avec un système d’IA, mais cette exigence ne s’applique pas aux entreprises privées.

4. Ajout de Garde-fous Biométriques – Avec de Grandes Lacunes

La loi inclut des dispositions concernant les données biométriques, mais ne crée pas de réformes radicales. Par exemple, rendre des images ou des clips audio accessibles au public ne constitue pas un consentement pour permettre à d’autres d’utiliser des identifiants biométriques.

5. Création d’un Programme de Sandbox pour l’IA

Cette loi permettra aux entreprises de tester des systèmes d’IA innovants dans un environnement contrôlé sans se conformer entièrement à la réglementation pendant une période allant jusqu’à 36 mois.

6. Établissement d’un Conseil sur l’Intelligence Artificielle du Texas

La loi créera un organe consultatif de 10 membres au sein du Département des Ressources de l’Information pour surveiller l’utilisation de l’IA au sein du gouvernement de l’État.

7. Absence de Droit d’Action Privé

La loi accorde au procureur général de l’État le pouvoir d’appliquer les réglementations sur l’IA, mais il n’existe pas de droit d’action privé pour les consommateurs ou les travailleurs.

Que Se Passe-t-il Maintenant ?

Nous découvrirons bientôt si cette loi de régulation légère de l’IA prendra effet. Le gouverneur a trois options avant le 22 juin :

  • Signer le Projet de Loi : TRAIGA deviendra loi le 1er janvier 2026.
  • Veto le Projet de Loi : HB 149 ne deviendra pas loi à moins que les législateurs ne surmontent le veto.
  • Ne Pas Agir : TRAIGA deviendra loi le 1er janvier 2026 sans la signature du gouverneur.

Mais Attendez…

Il existe une possibilité que le Congrès approuve une proposition visant à imposer un moratoire de dix ans sur les lois des États régulant l’IA, ce qui annulerait la loi texane et d’autres lois similaires.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...