Texas adopte une loi pionnière sur la gouvernance de l’IA

A robot

Le Texas adopte une loi complète sur la gouvernance de l’IA

Le 2 juin, le législateur texan a voté le Texas Responsible Artificial Intelligence Governance Act (loi sur la gouvernance de l’IA au Texas), qui est maintenant en attente de la signature ou du veto du gouverneur. Si cette loi est promulguée, elle entrera en vigueur le 1er janvier 2026. Il s’agit de la législation sur la gouvernance de l’IA la plus complète jamais adoptée par un État aux États-Unis, plaçant le Texas parmi les premiers États à réglementer spécifiquement l’IA, après le Colorado, l’Utah et la Californie.

Cette loi a été adoptée dans un contexte crucial, après que la Chambre des représentants des États-Unis a voté un moratoire fédéral de dix ans sur la réglementation des systèmes d’IA par les États, ce qui pourrait annuler les lois existantes et empêcher l’adoption de nouvelles réglementations. Notamment, 40 procureurs généraux des États ont adressé une lettre bipartisane aux législateurs fédéraux pour s’opposer à ce moratoire, rendant l’approche du Texas particulièrement significative.

Portée de la loi

La loi texane s’applique aux développeurs et déployeurs de tout système d’intelligence artificielle, défini comme « tout système basé sur une machine qui, pour un objectif explicite ou implicite, infère des sorties à partir des entrées reçues, y compris du contenu, des décisions, des prévisions ou des recommandations qui peuvent influencer des environnements physiques ou virtuels ». Cette définition est potentiellement plus large que celles en vigueur au Colorado et en Utah, qui ne réglementent que les systèmes d’IA jugés « à haut risque ».

La loi impose certaines divulgations concernant le développement et le déploiement des systèmes d’IA. Par exemple, les prestataires de services de santé qui utilisent des systèmes d’IA doivent informer leurs patients de cette utilisation. Elle interdit également le développement ou le déploiement d’un système d’IA qui cause du tort à autrui, encourage l’automutilation (y compris le suicide) ou engage des activités criminelles.

Il sera également illégal de développer ou de déployer une IA qui « enfreint, restreint ou porte atteinte » à des droits garantis par la Constitution des États-Unis, ou qui discrimine une personne en fonction de caractéristiques protégées telles que la race, la couleur, le sexe, l’âge ou le handicap. Bien que ces mandats s’appliquent aussi bien aux secteurs public qu privé, les interdictions de discrimination ne s’appliquent pas aux compagnies d’assurance ou aux institutions financières tant qu’elles respectent leurs réglementations sectorielles.

Cadre réglementaire et d’application

Le procureur général du Texas détiendra des pouvoirs exclusifs d’application, incluant la capacité d’émettre des demandes d’enquête civile pour obtenir des données d’entraînement, des documents de purpose et des métriques relatives aux systèmes d’IA. En cas de violation, un avis sera envoyé à la partie concernée, lui accordant un délai de 60 jours pour remédier à la violation. Les agences d’État pourront également faire respecter la loi contre les personnes et entreprises dans leurs juridictions.

Les sanctions civiles sont fixées entre 10 000 et 12 000 dollars pour les violations remédiables, entre 80 000 et 200 000 dollars pour les violations non remédiables, et entre 2 000 et 40 000 dollars par jour pour les violations continues. Ces pénalités financières s’ajoutent à d’éventuels recours en injonction.

La loi crée également un conseil de l’IA du Texas au sein du Département des ressources d’information, chargé de veiller à ce que les systèmes d’IA développés et déployés au Texas servent au mieux les intérêts des citoyens. Ce conseil, composé de sept membres, aura pour mission d’évaluer les lois et réglementations en matière d’IA et de formuler des recommandations.

Implications pour les entreprises

Si elle est adoptée, la loi sur l’IA du Texas imposera le cadre de gouvernance le plus complet et le plus large sur les systèmes d’IA à ce jour. Cela pourrait avoir un impact majeur à l’échelle nationale sur le développement et le déploiement des systèmes d’IA, étant donné la taille du Texas et la concentration des entreprises technologiques dans l’État.

Cette législation fournira également au procureur général du Texas, Ken Paxton, un nouvel outil pour renforcer l’application des lois sur la protection de la vie privée et des consommateurs, y compris contre les systèmes d’IA. Au cours de l’année passée, Paxton et d’autres procureurs ont utilisé les lois sur la protection de la vie privée et la protection des consommateurs pour agir contre le développement et le déploiement de l’IA.

Conclusion

Les entreprises utilisant l’IA et opérant dans plusieurs juridictions doivent être conscientes de l’évolution rapide des réglementations étatiques concernant le développement et le déploiement de systèmes d’IA. Les spécificités de chaque État, comme celles récemment adoptées par le Texas, pourraient servir de modèle pour d’autres États envisagent une législation similaire.

Les entreprises doivent également veiller à ce que leurs systèmes d’IA produisent des résultats équitables et non biaisés, en tenant compte des lois anti-discrimination en vigueur. Assurer la conformité dès le début du cycle de vie d’un système d’IA est la meilleure façon de réduire les risques réglementaires. Les entreprises désireuses de développer ou de déployer des systèmes d’IA devraient consulter des conseillers juridiques expérimentés.

Articles

L’intelligence artificielle responsable : vers un avenir financier sûr

La discussion mondiale sur l'intelligence artificielle a évolué vers une question cruciale : comment utiliser ces outils de manière responsable, en particulier dans le secteur financier où la...

Certification pour une IA de confiance et durable

La certification transforme la réglementation en un catalyseur pour l'adoption de l'IA fiable, offrant un avantage concurrentiel aux entreprises qui adoptent la conformité tôt. En 2025, la loi sur...

Confiance et transparence : l’avenir de l’IA explicable

L'IA explicable (XAI) est essentielle pour établir la confiance, garantir la transparence et permettre la responsabilité dans des domaines critiques comme la santé et la finance. Les réglementations...

Réguler l’IA pour un avenir responsable

L'intelligence artificielle est la technologie révolutionnaire la plus transformative de notre époque, mais elle comporte également d'immenses risques. Les systèmes d'IA sont souvent biaisés et...

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...