Nouvelles Régulations sur l’IA avec la Loi sur la Gouvernance Responsable de l’Intelligence Artificielle du Texas
La rapide avancée de l’intelligence artificielle (IA) a dépassé les cadres réglementaires existants aux États-Unis. Actuellement, la réglementation de l’IA se fait principalement sur une base étatique. La plupart des États qui ont adopté des lois sur l’IA reposent sur des régulations ciblées pour des cas d’utilisation ou des domaines particuliers. Le Texas a établi une des approches les plus complètes avec sa Loi sur la Gouvernance Responsable de l’Intelligence Artificielle (TRAIGA).
TRAIGA, signée en loi le 22 juin 2025 et entrée en vigueur le 1er janvier 2026, a des implications qui vont au-delà des frontières du Texas. Cette loi aborde le développement ou le déploiement de systèmes d’IA et prohibe les actions suivantes :
- Développer ou déployer un système d’IA avec l’intention de manipuler le comportement humain pour inciter ou encourager l’automutilation, nuire à autrui, ou commettre des activités criminelles.
- Développer ou déployer un système d’IA dans le seul but d’enfreindre, restreindre ou porter atteinte aux droits garantis par la Constitution.
- Développer ou déployer un système d’IA avec l’intention de discriminer illégalement contre une classe protégée en violation des lois étatiques ou fédérales.
- Développer ou déployer un système d’IA dans le seul but de produire ou distribuer certains contenus sexuellement explicites.
Le Code des affaires et du commerce du Texas définit les systèmes d’IA comme « tout système basé sur une machine qui, pour un objectif explicite ou implicite, infère à partir des entrées reçues comment générer des sorties, y compris du contenu, des décisions, des prévisions ou des recommandations, qui peuvent influencer des environnements physiques ou virtuels ». TRAIGA s’applique à toute personne ou entité qui fait des affaires au Texas ou avec des Texans, élargissant ainsi sa portée bien au-delà des frontières du Texas.
Contexte et Développement de TRAIGA
TRAIGA se concentre à la fois sur le développement et le déploiement, affectant non seulement les développeurs d’IA, mais aussi toute entité qui pourrait utiliser une telle IA. L’accent mis sur l’intention représente un changement significatif par rapport aux évaluations basées sur le risque de style européen, qui ont également été adoptées au Colorado. En adoptant cette approche, TRAIGA offre un cadre clair et potentiellement plus facilement opérationnel par rapport aux méthodologies traditionnelles basées sur le risque.
TRAIGA crée également un organe consultatif d’État sous la forme d’un Conseil de l’IA pour fournir supervision et orientation. De plus, TRAIGA met en place un programme de « sandbox » réglementaire, dans lequel les entreprises peuvent tester des systèmes d’IA dans un environnement contrôlé pendant 36 mois, tout en étant protégées contre certains types de poursuites.
Application et Sanctions
Le procureur général du Texas a le droit exclusif d’intenter des actions en vertu de TRAIGA, car la loi ne prévoit aucun droit d’action privé. Le procureur général doit fournir un avis et une opportunité de remédier avant d’intenter une action, et les sanctions varient de 10 000 à 200 000 dollars par violation, en fonction, en partie, de la détermination de la violation comme « réparable », ou de 2 000 à 40 000 dollars par jour en cas de violation continue.
Comparaison avec d’autres États
Le Colorado a adopté une législation complète sur l’IA par le biais de la Loi sur l’IA du Colorado. Cette loi met en œuvre un cadre basé sur le risque, exigeant des développeurs et des déployeurs qu’ils réalisent des évaluations d’impact, gèrent les risques et fournissent des notifications claires aux consommateurs. Ainsi, la CAIA comporte plus d’obstacles à la conformité que la TRAIGA. La Loi sur l’IA de l’Utah aborde principalement la notification des consommateurs et les pratiques trompeuses, résultant en une portée plus limitée que celle de la TRAIGA. La Californie a adopté plusieurs réglementations ciblées concernant des applications spécifiques de l’IA, telles que la supervision des chatbots, les mesures d’intégrité électorale et les restrictions sur les deepfakes. Le Texas, quant à lui, a établi des lois liées à l’IA qui sont plus simples comparées à celles de la Californie.
Étapes Pratiques
Toute entité faisant des affaires au Texas ou avec des résidents du Texas doit soigneusement évaluer son exposition aux risques et revoir ses politiques commerciales en conséquence. En général, les organisations sont conseillées de considérer les points suivants :
- Cartographier votre exposition au Texas : Identifier les systèmes d’IA développés, offerts ou déployés au Texas.
- Mettre à jour les politiques d’IA pour interdire expressément les utilisations de l’IA pouvant manipuler l’automutilation, la violence, le crime, discriminer intentionnellement, violer des droits ou produire du contenu sexuel pour enfants.
- Évaluer la sandbox du Texas : Évaluer s’il est approprié de piloter vos fonctionnalités d’IA de prochaine génération dans la sandbox du Texas pour atténuer le risque réglementaire.