Texas adopte une loi pionnière sur la gouvernance de l’IA responsable

A lock with a key featuring a brain symbol

Le Texas adopte la Loi sur la gouvernance responsable de l’IA

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la Loi sur la gouvernance responsable de l’IA (TRAIGA) en tant que loi, marquant la conclusion d’un projet de loi qui a suscité une attention nationale et a subi d’importants changements au cours du processus législatif.

Initialement introduit en décembre 2024, le projet de loi TRAIGA proposait un cadre réglementaire ambitieux inspiré de la Loi sur l’IA du Colorado et de la Loi sur l’IA de l’UE, axé sur les systèmes d’IA « à haut risque » et imposant des exigences et des responsabilités substantielles pour les développeurs et les déployeurs du secteur privé. Cependant, en mars 2025, les législateurs texans ont proposé une version amendée qui a considérablement réduit la portée du projet de loi. De nombreuses exigences les plus lourdes de la version originale — telles que l’obligation de protéger les consommateurs contre les dommages prévisibles, de mener des évaluations d’impact et de divulguer les détails des systèmes d’IA à haut risque aux consommateurs — ont été soit supprimées, soit limitées aux entités gouvernementales.

Provisions substantielles de TRAIGA

La version adoptée de TRAIGA comprend plusieurs dispositions qui pourraient avoir un impact sur les entreprises opérant au Texas. En particulier, la loi impose des restrictions catégoriques sur le développement et le déploiement de systèmes d’IA à certaines fins, notamment :

  • Manipulation du comportement humain : Les systèmes d’IA ne peuvent pas être développés ou déployés pour encourager intentionnellement toute personne à se faire du mal ou à nuire à autrui.
  • Protection constitutionnelle : Les systèmes d’IA ne peuvent pas être développés ou déployés dans le but d’enfreindre, de restreindre ou d’entraver les droits constitutionnels d’une personne.
  • Discrimination illégale : Les systèmes d’IA ne peuvent pas être développés ou déployés avec l’intention de discriminer illégalement une classe protégée selon la loi fédérale ou étatique.
  • Contenu sexuellement explicite : Les systèmes d’IA ne peuvent pas être développés ou distribués dans le but de produire ou de distribuer de la pornographie enfantine ou des vidéos ou images deepfake illégales.

La loi stipule que ces interdictions doivent être « largement interprétées et appliquées » pour promouvoir les objectifs sous-jacents de TRAIGA, qui incluent le développement responsable de l’IA et la protection du public contre les risques prévisibles associés à l’IA.

Application et pénalités

TRAIGA confère l’autorité d’application uniquement au Procureur général du Texas. En vertu de la loi, le Procureur général doit développer un mécanisme de signalement sur son site web pour faciliter les plaintes des consommateurs concernant d’éventuelles violations. Après avoir reçu une plainte d’un consommateur, le Procureur général peut émettre une demande d’enquête civile auprès des parties soupçonnées de violer TRAIGA.

Après avoir reçu un avis de violation du Procureur général, une partie dispose de 60 jours pour corriger toute violation et fournir une documentation à l’appui expliquant comment les violations alléguées ont été corrigées. Le Procureur général peut également demander des pénalités civiles pour les violations non corrigées, qui varient en fonction du type de violation en question.

Programme de bac à sable réglementaire

TRAIGA introduit un programme de bac à sable réglementaire administré par le Département des ressources d’information (DIR) qui est conçu pour soutenir le test et le développement de systèmes d’IA dans un environnement réglementaire assoupli.

Les parties intéressées doivent soumettre une demande comprenant une description détaillée du système d’IA qui sera testé sous le programme, une évaluation des bénéfices, des plans d’atténuation en cas de conséquences indésirables et la preuve de conformité avec les lois et réglementations fédérales sur l’IA.

Conseil consultatif sur l’IA du Texas

Enfin, TRAIGA établit le Conseil consultatif sur l’IA du Texas, composé de sept membres qualifiés nommés par le gouverneur, le lieutenant-gouverneur et le président de la chambre. Le Conseil est chargé de mener des programmes de formation sur l’IA pour les agences d’État et les gouvernements locaux.

Conclusion

Les développeurs et déployeurs opérant au Texas ont le temps de s’assurer de leur conformité avant que TRAIGA n’entre en vigueur le 1er janvier 2026. Les entreprises peuvent commencer par évaluer si elles ont développé ou déployé (ou ont l’intention de développer ou déployer) un système d’IA qui pourrait impliquer l’une des utilisations interdites par TRAIGA.

La loi encourage également les développeurs et déployeurs à être proactifs dans la prévention de problèmes potentiels en limitant la responsabilité des parties qui identifient et corrigent leurs propres violations.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...