Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

A medical cross signifying healthcare-focused AI regulations.

Le Texas adopte des lois complètes sur la gouvernance de l’IA avec des dispositions spécifiques pour le secteur de la santé

Le Texas a franchi une étape significative dans la régulation de l’intelligence artificielle (IA) avec l’adoption de la House Bill (HB) 149 et de la Senate Bill (SB) 1188. Signées en loi le 22 juin 2025 et entrant en vigueur le 1er janvier 2026, la HB 149, formellement intitulée Texas Responsible Artificial Intelligence Governance Act (TRAIGA), établit un cadre général pour l’utilisation responsable de l’IA dans le secteur public, avec des exigences plus limitées pour le secteur privé, y compris les prestataires de soins de santé. Cette loi vise à promouvoir la transparence et le déploiement responsable de l’IA, notamment dans les contextes où des systèmes automatisés sont utilisés pour prendre des décisions ayant un impact matériel sur les individus.

TRAIGA : Un cadre étatique pour une IA responsable

TRAIGA impose des limitations sur la façon dont les agences d’État du Texas et les développeurs de systèmes d’IA peuvent utiliser ces technologies. Ces limitations s’étendent également aux membres de l’industrie de la santé. En particulier, TRAIGA exige que les prestataires de soins de santé informent les patients (ou leurs représentants personnels) de l’utilisation de systèmes d’IA si ces systèmes sont utilisés dans le diagnostic ou le traitement des patients. Dans les environnements cliniques, cette divulgation doit être faite avant ou au moment de l’interaction, sauf en cas d’urgence, où elle doit être fournie dès que raisonnablement possible. Cette exigence vise à garantir que les patients soient conscients de l’implication de l’IA dans leurs soins afin qu’ils puissent prendre des décisions éclairées, comme celle de chercher des soins auprès d’un autre prestataire.

En plus de l’exigence de divulgation, TRAIGA comprend des dispositions qui interdisent l’utilisation de l’IA avec l’intention spécifique de discriminer les individus en fonction de caractéristiques protégées. Cependant, la loi précise qu’un impact disparate seul n’est pas suffisant pour établir une intention discriminatoire – une distinction qui pourrait influencer l’évaluation des biais dans les algorithmes de santé. La loi traite également de l’utilisation de données biométriques dans les systèmes d’IA, bien que ces restrictions ne s’appliquent qu’aux entités gouvernementales. En particulier, elle interdit aux agences gouvernementales d’utiliser l’IA pour identifier des individus à travers des données biométriques sans consentement, lorsque cette utilisation porterait atteinte à leurs droits constitutionnels ou statutaires. Notamment, les données biométriques utilisées pour le traitement de santé, le paiement ou les opérations en vertu de la Health Insurance Portability and Accountability Act (HIPAA) sont exclues de cette définition.

Au-delà de ces dispositions substantielles, TRAIGA impose des obligations de gouvernance aux organisations qui développent ou déploient des systèmes d’IA. Les prestataires de soins de santé doivent examiner leurs politiques et procédures internes pour évaluer et atténuer les risques, maintenir une documentation et garantir une supervision humaine dans la prise de décision assistée par l’IA. L’autorité de mise en application revient au procureur général du Texas, qui est habilité à enquêter sur les violations et à imposer des pénalités civiles.

Texas SB 1188 : IA dans la santé et localisation des données

La SB 1188 introduit des obligations ciblées pour les prestataires de soins de santé utilisant l’IA. En particulier, la loi stipule que les praticiens licenciés peuvent utiliser l’IA pour soutenir le diagnostic et la planification du traitement, à condition que les exigences suivantes soient satisfaites : 1) le prestataire doit agir dans le cadre de sa licence, quelle que soit son utilisation de l’IA, 2) l’utilisation de l’IA n’est pas autrement interdite par la loi, et 3) le prestataire examine tous les dossiers générés par l’IA conformément aux normes établies par le Texas Medical Board. Ainsi, cette loi exige essentiellement qu’un prestataire examine tous les dossiers ou recommandations générés par l’IA et prenne la décision médicale finale conformément à son champ de pratique.

De plus, la SB 1188 impose un strict mandat de localisation des données, interdisant le transfert physique des dossiers médicaux électroniques à l’étranger. Cette exigence s’applique non seulement aux dossiers conservés directement par les prestataires de soins de santé, mais également à ceux maintenus par des fournisseurs tiers ou des fournisseurs de services cloud. Les entités couvertes doivent également veiller à ce que ces dossiers soient accessibles uniquement aux individus dont les responsabilités professionnelles nécessitent un accès pour le traitement, le paiement ou les opérations de santé, et doivent mettre en œuvre des garanties administratives, physiques et techniques raisonnables pour protéger la confidentialité, l’intégrité et la disponibilité des données des patients.

Vers l’avenir

Ensemble, la TRAIGA et la SB 1188 reflètent le rôle croissant du Texas dans la définition de la régulation de l’IA au niveau étatique, en particulier dans le secteur de la santé. Ces lois démontrent un effort délibéré pour équilibrer l’avancement technologique avec la protection des patients et des consommateurs. À mesure que ces exigences entreront en vigueur, les entreprises et les prestataires de soins de santé opérant au Texas devraient commencer à revoir leurs systèmes d’IA, leurs politiques pour les patients et leurs pratiques de gestion des données pour garantir la conformité. De plus, au fur et à mesure que l’utilisation de l’IA dans le secteur de la santé continue d’évoluer et d’être adoptée, les entreprises de santé et les prestataires devraient déterminer si leur utilisation prévue de l’IA est conforme à ces lois au moment de leur mise en œuvre et par la suite.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...