Gouvernance de l’IA au Texas : Une Révolution Législative

A blueprint of a smart city

TRAIGA : Principales dispositions de la nouvelle loi texane sur la gouvernance de l’intelligence artificielle

Le 31 mai 2025, la législature texane a adopté la House Bill 149, connu sous le nom de Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Cette loi établit des exigences de divulgation pour les développeurs et déployeurs d’IA au sein des entités gouvernementales, définit les utilisations interdites de l’IA, et met en place des pénalités civiles en cas de violations.

TRAIGA entrera en vigueur le 1er janvier 2026, rejoignant ainsi d’autres États comme la Californie, le Colorado et l’Utah, qui ont également légiféré sur l’intelligence artificielle.

À qui s’applique TRAIGA ? Définitions clés

TRAIGA s’applique à deux « groupes » : (1) les personnes et entités couvertes, et (2) les entités gouvernementales.

Personnes et Entités Couvertes
Les personnes et entités couvertes sont définies comme toute personne qui (1) promeut, fait de la publicité ou exerce des activités commerciales au Texas, (2) produit un produit ou un service utilisé par les résidents du Texas, ou (3) développe ou déploie un système d’intelligence artificielle au Texas.

Développeurs et Déployeurs
Un développeur est une personne qui développe un système d’intelligence artificielle proposé, vendu, loué ou autrement fourni au Texas, tandis qu’un déployeur est une personne qui déploie un système d’intelligence artificielle pour utilisation au Texas.

Entités Gouvernementales
Une entité gouvernementale est tout département, commission, conseil ou autre unité administrative du Texas exerçant des fonctions gouvernementales. Cette définition exclut spécifiquement les districts hospitaliers et les établissements d’enseignement supérieur.

Comment TRAIGA sera-t-elle appliquée ?

Le procureur général du Texas a l’autorité exclusive pour faire respecter la loi, avec quelques exceptions rares où des agences de l’État ont un pouvoir d’application limité. TRAIGA ne prévoit cependant pas de droit d’action privé.

Avis et possibilité de remédier
Avant que le procureur général ne puisse engager une action, il doit envoyer un avis écrit de violation à l’infracteur présumé. L’infracteur a alors 60 jours pour remédier à la violation, fournir la documentation nécessaire, et mettre à jour ou réviser ses politiques internes pour prévenir de futures violations.

Pénalités civiles
TRAIGA définit aussi des pénalités civiles, qui incluent :

  • Violations remédiables : 10 000 $ – 12 000 $ par violation.
  • Violations non remédiables : 80 000 $ – 200 000 $ par violation.
  • Violations continues : 2 000 $ – 40 000 $ par jour.

Utilisations interdites de l’IA

TRAIGA interdit spécifiquement l’utilisation de l’IA par une entité gouvernementale pour :

  • Attribuer un score social.
  • Identifier de manière unique un individu à l’aide de données biométriques sans le consentement de l’individu.
  • Inciter ou encourager l’automutilation, le crime ou la violence.
  • Restreindre ou porter atteinte aux droits garantis par la Constitution des États-Unis.
  • Discriminer illégalement contre une classe protégée selon les lois étatiques ou fédérales.
  • Produire ou distribuer certains contenus sexuellement explicites ou de la pornographie juvénile, y compris des deep fakes.

TRAIGA établit également un programme de sandbox pour permettre aux entreprises de tester l’IA dans un environnement contrôlé sans respecter pleinement la réglementation.

Considérations de conformité à TRAIGA

Les entreprises doivent évaluer l’applicabilité de TRAIGA en répertoriant tous les systèmes d’IA développés ou déployés au Texas. Elles doivent également analyser les cas d’utilisation, examiner les exigences de divulgation, et aligner leurs programmes d’IA avec des cadres de risque reconnus.

La loi texane sur la gouvernance de l’IA représente un pas important vers la réglementation de cette technologie en pleine expansion. En équilibrant innovation et protection des droits des consommateurs, TRAIGA pourrait servir de modèle pour d’autres États à l’avenir.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...