Gouvernance de l’IA au Texas : Une Révolution Législative

A blueprint of a smart city

TRAIGA : Principales dispositions de la nouvelle loi texane sur la gouvernance de l’intelligence artificielle

Le 31 mai 2025, la législature texane a adopté la House Bill 149, connu sous le nom de Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Cette loi établit des exigences de divulgation pour les développeurs et déployeurs d’IA au sein des entités gouvernementales, définit les utilisations interdites de l’IA, et met en place des pénalités civiles en cas de violations.

TRAIGA entrera en vigueur le 1er janvier 2026, rejoignant ainsi d’autres États comme la Californie, le Colorado et l’Utah, qui ont également légiféré sur l’intelligence artificielle.

À qui s’applique TRAIGA ? Définitions clés

TRAIGA s’applique à deux « groupes » : (1) les personnes et entités couvertes, et (2) les entités gouvernementales.

Personnes et Entités Couvertes
Les personnes et entités couvertes sont définies comme toute personne qui (1) promeut, fait de la publicité ou exerce des activités commerciales au Texas, (2) produit un produit ou un service utilisé par les résidents du Texas, ou (3) développe ou déploie un système d’intelligence artificielle au Texas.

Développeurs et Déployeurs
Un développeur est une personne qui développe un système d’intelligence artificielle proposé, vendu, loué ou autrement fourni au Texas, tandis qu’un déployeur est une personne qui déploie un système d’intelligence artificielle pour utilisation au Texas.

Entités Gouvernementales
Une entité gouvernementale est tout département, commission, conseil ou autre unité administrative du Texas exerçant des fonctions gouvernementales. Cette définition exclut spécifiquement les districts hospitaliers et les établissements d’enseignement supérieur.

Comment TRAIGA sera-t-elle appliquée ?

Le procureur général du Texas a l’autorité exclusive pour faire respecter la loi, avec quelques exceptions rares où des agences de l’État ont un pouvoir d’application limité. TRAIGA ne prévoit cependant pas de droit d’action privé.

Avis et possibilité de remédier
Avant que le procureur général ne puisse engager une action, il doit envoyer un avis écrit de violation à l’infracteur présumé. L’infracteur a alors 60 jours pour remédier à la violation, fournir la documentation nécessaire, et mettre à jour ou réviser ses politiques internes pour prévenir de futures violations.

Pénalités civiles
TRAIGA définit aussi des pénalités civiles, qui incluent :

  • Violations remédiables : 10 000 $ – 12 000 $ par violation.
  • Violations non remédiables : 80 000 $ – 200 000 $ par violation.
  • Violations continues : 2 000 $ – 40 000 $ par jour.

Utilisations interdites de l’IA

TRAIGA interdit spécifiquement l’utilisation de l’IA par une entité gouvernementale pour :

  • Attribuer un score social.
  • Identifier de manière unique un individu à l’aide de données biométriques sans le consentement de l’individu.
  • Inciter ou encourager l’automutilation, le crime ou la violence.
  • Restreindre ou porter atteinte aux droits garantis par la Constitution des États-Unis.
  • Discriminer illégalement contre une classe protégée selon les lois étatiques ou fédérales.
  • Produire ou distribuer certains contenus sexuellement explicites ou de la pornographie juvénile, y compris des deep fakes.

TRAIGA établit également un programme de sandbox pour permettre aux entreprises de tester l’IA dans un environnement contrôlé sans respecter pleinement la réglementation.

Considérations de conformité à TRAIGA

Les entreprises doivent évaluer l’applicabilité de TRAIGA en répertoriant tous les systèmes d’IA développés ou déployés au Texas. Elles doivent également analyser les cas d’utilisation, examiner les exigences de divulgation, et aligner leurs programmes d’IA avec des cadres de risque reconnus.

La loi texane sur la gouvernance de l’IA représente un pas important vers la réglementation de cette technologie en pleine expansion. En équilibrant innovation et protection des droits des consommateurs, TRAIGA pourrait servir de modèle pour d’autres États à l’avenir.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...