Le Texas adopte la Loi sur la gouvernance responsable de l’intelligence artificielle
Récemment, le Texas a signé la Loi sur la gouvernance responsable de l’intelligence artificielle (TRAIGA), qui entrera en vigueur le 1er janvier 2026. Cette loi impose de nouvelles exigences aux entreprises et aux entités gouvernementales qui utilisent des systèmes d’intelligence artificielle dans divers domaines tels que la biométrie, les soins de santé, et la manipulation du comportement humain.
Points clés à retenir
- La nouvelle loi du Texas sur l’intelligence artificielle introduit des réglementations tant familières que novatrices sur l’utilisation de l’IA.
- TRAIGA prohibe certains usages de l’IA et exige des divulgations dans les contextes de soins de santé.
- La loi crée un « sandbox » réglementaire pour le développement de l’IA.
- Les violations de TRAIGA peuvent entraîner de lourdes amendes financières.
Vue d’ensemble
La loi HB 149 impose de nouvelles exigences aux entreprises et aux entités gouvernementales concernant l’utilisation des systèmes d’IA. Bien que certaines dispositions de TRAIGA soient similaires à celles de lois récemment adoptées dans d’autres États, d’autres reflètent une approche novatrice face aux enjeux liés à l’IA.
Principales dispositions
- Restrictions sur la loi texane sur la biométrie : TRAIGA introduit des exonérations importantes à la loi sur la capture ou l’utilisation des identifiants biométriques, permettant le développement d’IA qui ne vise pas à identifier des individus de manière unique.
- Interdictions d’utilisation de systèmes d’IA : La loi prohibe le développement ou le déploiement de systèmes d’IA dans des contextes tels que la manipulation du comportement humain, la discrimination contre des classes protégées, ou la production de matériel sexuel exploitant des enfants.
- Exigences de divulgation dans les soins de santé : Les prestataires de soins de santé doivent divulguer clairement leur utilisation de systèmes d’IA dans certaines situations.
- Réglementation de l’utilisation des systèmes d’IA par les entités gouvernementales : La loi impose des exigences aux agences gouvernementales, notamment la divulgation de l’interaction avec des systèmes d’IA et l’interdiction de la notation sociale.
- Création d’un « sandbox » réglementaire : TRAIGA établit un cadre pour tester des systèmes d’IA innovants avec des protections contre certaines poursuites.
Autorité de mise en œuvre
TRAIGA ne prévoit pas de droit d’action privé. L’autorité exclusive de mise en application revient au procureur général du Texas, avec des sanctions civiles variant de 10 000 à 200 000 dollars par violation.
Comment se préparer
Avec six mois restants avant l’entrée en vigueur de TRAIGA, les entreprises doivent évaluer leurs systèmes d’IA pour déterminer s’ils relèvent du champ d’application de la loi. Compte tenu de l’activité croissante du procureur général en matière de protection de la vie privée, il est essentiel d’effectuer un examen légal approfondi pour assurer la conformité.