Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

A medical cross signifying healthcare-focused AI regulations.

Le Texas adopte des lois complètes sur la gouvernance de l’IA avec des dispositions spécifiques pour le secteur de la santé

Le Texas a franchi une étape significative dans la régulation de l’intelligence artificielle (IA) avec l’adoption de la House Bill (HB) 149 et de la Senate Bill (SB) 1188. Signées en loi le 22 juin 2025 et entrant en vigueur le 1er janvier 2026, la HB 149, formellement intitulée Texas Responsible Artificial Intelligence Governance Act (TRAIGA), établit un cadre général pour l’utilisation responsable de l’IA dans le secteur public, avec des exigences plus limitées pour le secteur privé, y compris les prestataires de soins de santé. Cette loi vise à promouvoir la transparence et le déploiement responsable de l’IA, notamment dans les contextes où des systèmes automatisés sont utilisés pour prendre des décisions ayant un impact matériel sur les individus.

TRAIGA : Un cadre étatique pour une IA responsable

TRAIGA impose des limitations sur la façon dont les agences d’État du Texas et les développeurs de systèmes d’IA peuvent utiliser ces technologies. Ces limitations s’étendent également aux membres de l’industrie de la santé. En particulier, TRAIGA exige que les prestataires de soins de santé informent les patients (ou leurs représentants personnels) de l’utilisation de systèmes d’IA si ces systèmes sont utilisés dans le diagnostic ou le traitement des patients. Dans les environnements cliniques, cette divulgation doit être faite avant ou au moment de l’interaction, sauf en cas d’urgence, où elle doit être fournie dès que raisonnablement possible. Cette exigence vise à garantir que les patients soient conscients de l’implication de l’IA dans leurs soins afin qu’ils puissent prendre des décisions éclairées, comme celle de chercher des soins auprès d’un autre prestataire.

En plus de l’exigence de divulgation, TRAIGA comprend des dispositions qui interdisent l’utilisation de l’IA avec l’intention spécifique de discriminer les individus en fonction de caractéristiques protégées. Cependant, la loi précise qu’un impact disparate seul n’est pas suffisant pour établir une intention discriminatoire – une distinction qui pourrait influencer l’évaluation des biais dans les algorithmes de santé. La loi traite également de l’utilisation de données biométriques dans les systèmes d’IA, bien que ces restrictions ne s’appliquent qu’aux entités gouvernementales. En particulier, elle interdit aux agences gouvernementales d’utiliser l’IA pour identifier des individus à travers des données biométriques sans consentement, lorsque cette utilisation porterait atteinte à leurs droits constitutionnels ou statutaires. Notamment, les données biométriques utilisées pour le traitement de santé, le paiement ou les opérations en vertu de la Health Insurance Portability and Accountability Act (HIPAA) sont exclues de cette définition.

Au-delà de ces dispositions substantielles, TRAIGA impose des obligations de gouvernance aux organisations qui développent ou déploient des systèmes d’IA. Les prestataires de soins de santé doivent examiner leurs politiques et procédures internes pour évaluer et atténuer les risques, maintenir une documentation et garantir une supervision humaine dans la prise de décision assistée par l’IA. L’autorité de mise en application revient au procureur général du Texas, qui est habilité à enquêter sur les violations et à imposer des pénalités civiles.

Texas SB 1188 : IA dans la santé et localisation des données

La SB 1188 introduit des obligations ciblées pour les prestataires de soins de santé utilisant l’IA. En particulier, la loi stipule que les praticiens licenciés peuvent utiliser l’IA pour soutenir le diagnostic et la planification du traitement, à condition que les exigences suivantes soient satisfaites : 1) le prestataire doit agir dans le cadre de sa licence, quelle que soit son utilisation de l’IA, 2) l’utilisation de l’IA n’est pas autrement interdite par la loi, et 3) le prestataire examine tous les dossiers générés par l’IA conformément aux normes établies par le Texas Medical Board. Ainsi, cette loi exige essentiellement qu’un prestataire examine tous les dossiers ou recommandations générés par l’IA et prenne la décision médicale finale conformément à son champ de pratique.

De plus, la SB 1188 impose un strict mandat de localisation des données, interdisant le transfert physique des dossiers médicaux électroniques à l’étranger. Cette exigence s’applique non seulement aux dossiers conservés directement par les prestataires de soins de santé, mais également à ceux maintenus par des fournisseurs tiers ou des fournisseurs de services cloud. Les entités couvertes doivent également veiller à ce que ces dossiers soient accessibles uniquement aux individus dont les responsabilités professionnelles nécessitent un accès pour le traitement, le paiement ou les opérations de santé, et doivent mettre en œuvre des garanties administratives, physiques et techniques raisonnables pour protéger la confidentialité, l’intégrité et la disponibilité des données des patients.

Vers l’avenir

Ensemble, la TRAIGA et la SB 1188 reflètent le rôle croissant du Texas dans la définition de la régulation de l’IA au niveau étatique, en particulier dans le secteur de la santé. Ces lois démontrent un effort délibéré pour équilibrer l’avancement technologique avec la protection des patients et des consommateurs. À mesure que ces exigences entreront en vigueur, les entreprises et les prestataires de soins de santé opérant au Texas devraient commencer à revoir leurs systèmes d’IA, leurs politiques pour les patients et leurs pratiques de gestion des données pour garantir la conformité. De plus, au fur et à mesure que l’utilisation de l’IA dans le secteur de la santé continue d’évoluer et d’être adoptée, les entreprises de santé et les prestataires devraient déterminer si leur utilisation prévue de l’IA est conforme à ces lois au moment de leur mise en œuvre et par la suite.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...