Législation texane pour une IA responsable en 2025

A blueprint

Loi sur la gouvernance de l’IA au Texas signée par le gouverneur

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la Loi sur la gouvernance responsable de l’IA du Texas (TRAIGA). Cette législation arrive à un moment où le débat se poursuit au sein du Sénat américain concernant une moratoire sur la capacité des États à légiférer sur l’intelligence artificielle (IA). Malgré cela, la signature de la loi HB 149 indique que les États continueront à légiférer en matière de protection des consommateurs et d’utilisation de l’IA, à moins que cela ne soit préempté par une loi de réconciliation finale.

Contexte et enjeux

Cette initiative du gouverneur Abbott souligne l’importance de gouverner l’IA de manière responsable. Dans un contexte où certains affirment que l’IA est une technologie exceptionnelle qui ne devrait pas être soumise à des règles strictes, le Texas démontre qu’il est essentiel d’assurer à la fois l’innovation et la safety des citoyens.

Objectifs de la loi

La TRAIGA vise à :

  • Faciliter et promouvoir le développement responsable des systèmes d’IA ;
  • Protéger les individus et groupes contre les risques connus et prévisibles associés aux systèmes d’IA ;
  • Assurer la transparence concernant les risques liés au développement, au déploiement et à l’utilisation des systèmes d’IA ;
  • Informer les consommateurs sur l’utilisation de ces systèmes par les agences gouvernementales.

Application de la loi

La TRAIGA s’applique à tous les développeurs et déployeurs de systèmes d’IA, y compris les entités gouvernementales. Selon la loi, il est requis que les entités gouvernementales fournissent un avis clair aux consommateurs avant ou au moment de l’interaction, indiquant que l’utilisateur interagit avec une IA. Cela peut être réalisé par le biais d’un hyperlien.

La loi interdit également l’utilisation de l’IA pour attribuer un score social ou identifier un consommateur à l’aide de données biométriques sans le consentement de l’individu.

Restrictions supplémentaires

TRAIGA interdit également le développement ou le déploiement de systèmes d’IA visant à inciter des comportements nuisibles, tels que :

  • Se faire du mal, y compris le suicide ;
  • Nuire à autrui ;
  • Participer à des activités criminelles.

De plus, elle prohibe toute action qui vise à restreindre ou affaiblir les droits garantis par la Constitution des États-Unis ou qui discrimine illégalement une classe protégée.

Application et Sanctions

Le Procureur général du Texas a la juridiction exclusive pour faire respecter la TRAIGA et peut imposer des sanctions civiles après une décision de justice, en fonction de l’intention et des violations. Les amendes peuvent atteindre entre 10 000 et 200 000 dollars, avec des pénalités quotidiennes pouvant aller de 2 000 à 40 000 dollars pour chaque jour de violation continue.

Conclusion

La loi entrera en vigueur le 1er janvier 2026, ce qui incite les développeurs et déployeurs d’IA à évaluer si elle s’applique à leur situation et à prendre des mesures pour garantir leur conformité.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...