Texas adopte une loi pionnière sur la gouvernance de l’IA responsable

A lock with a key featuring a brain symbol

Le Texas adopte la Loi sur la gouvernance responsable de l’IA

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la Loi sur la gouvernance responsable de l’IA (TRAIGA) en tant que loi, marquant la conclusion d’un projet de loi qui a suscité une attention nationale et a subi d’importants changements au cours du processus législatif.

Initialement introduit en décembre 2024, le projet de loi TRAIGA proposait un cadre réglementaire ambitieux inspiré de la Loi sur l’IA du Colorado et de la Loi sur l’IA de l’UE, axé sur les systèmes d’IA « à haut risque » et imposant des exigences et des responsabilités substantielles pour les développeurs et les déployeurs du secteur privé. Cependant, en mars 2025, les législateurs texans ont proposé une version amendée qui a considérablement réduit la portée du projet de loi. De nombreuses exigences les plus lourdes de la version originale — telles que l’obligation de protéger les consommateurs contre les dommages prévisibles, de mener des évaluations d’impact et de divulguer les détails des systèmes d’IA à haut risque aux consommateurs — ont été soit supprimées, soit limitées aux entités gouvernementales.

Provisions substantielles de TRAIGA

La version adoptée de TRAIGA comprend plusieurs dispositions qui pourraient avoir un impact sur les entreprises opérant au Texas. En particulier, la loi impose des restrictions catégoriques sur le développement et le déploiement de systèmes d’IA à certaines fins, notamment :

  • Manipulation du comportement humain : Les systèmes d’IA ne peuvent pas être développés ou déployés pour encourager intentionnellement toute personne à se faire du mal ou à nuire à autrui.
  • Protection constitutionnelle : Les systèmes d’IA ne peuvent pas être développés ou déployés dans le but d’enfreindre, de restreindre ou d’entraver les droits constitutionnels d’une personne.
  • Discrimination illégale : Les systèmes d’IA ne peuvent pas être développés ou déployés avec l’intention de discriminer illégalement une classe protégée selon la loi fédérale ou étatique.
  • Contenu sexuellement explicite : Les systèmes d’IA ne peuvent pas être développés ou distribués dans le but de produire ou de distribuer de la pornographie enfantine ou des vidéos ou images deepfake illégales.

La loi stipule que ces interdictions doivent être « largement interprétées et appliquées » pour promouvoir les objectifs sous-jacents de TRAIGA, qui incluent le développement responsable de l’IA et la protection du public contre les risques prévisibles associés à l’IA.

Application et pénalités

TRAIGA confère l’autorité d’application uniquement au Procureur général du Texas. En vertu de la loi, le Procureur général doit développer un mécanisme de signalement sur son site web pour faciliter les plaintes des consommateurs concernant d’éventuelles violations. Après avoir reçu une plainte d’un consommateur, le Procureur général peut émettre une demande d’enquête civile auprès des parties soupçonnées de violer TRAIGA.

Après avoir reçu un avis de violation du Procureur général, une partie dispose de 60 jours pour corriger toute violation et fournir une documentation à l’appui expliquant comment les violations alléguées ont été corrigées. Le Procureur général peut également demander des pénalités civiles pour les violations non corrigées, qui varient en fonction du type de violation en question.

Programme de bac à sable réglementaire

TRAIGA introduit un programme de bac à sable réglementaire administré par le Département des ressources d’information (DIR) qui est conçu pour soutenir le test et le développement de systèmes d’IA dans un environnement réglementaire assoupli.

Les parties intéressées doivent soumettre une demande comprenant une description détaillée du système d’IA qui sera testé sous le programme, une évaluation des bénéfices, des plans d’atténuation en cas de conséquences indésirables et la preuve de conformité avec les lois et réglementations fédérales sur l’IA.

Conseil consultatif sur l’IA du Texas

Enfin, TRAIGA établit le Conseil consultatif sur l’IA du Texas, composé de sept membres qualifiés nommés par le gouverneur, le lieutenant-gouverneur et le président de la chambre. Le Conseil est chargé de mener des programmes de formation sur l’IA pour les agences d’État et les gouvernements locaux.

Conclusion

Les développeurs et déployeurs opérant au Texas ont le temps de s’assurer de leur conformité avant que TRAIGA n’entre en vigueur le 1er janvier 2026. Les entreprises peuvent commencer par évaluer si elles ont développé ou déployé (ou ont l’intention de développer ou déployer) un système d’IA qui pourrait impliquer l’une des utilisations interdites par TRAIGA.

La loi encourage également les développeurs et déployeurs à être proactifs dans la prévention de problèmes potentiels en limitant la responsabilité des parties qui identifient et corrigent leurs propres violations.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...