Nouvelles lois de l’Utah sur l’IA : exigences de divulgation et protection de l’identité

A mental health awareness ribbon

Nouvelles lois sur l’IA dans l’Utah : Changements des exigences de divulgation et protections de l’identité

Le 7 mai 2025, cinq nouveaux projets de loi concernant l’intelligence artificielle (IA) sont entrés en vigueur dans l’État de l’Utah. Ces lois apportent des modifications aux exigences de divulgation et visent à renforcer la protection de l’identité des utilisateurs, notamment dans le domaine des chatbots de santé mentale.

Modifications des exigences de divulgation (SB 226 et SB 332)

Les lois de l’Utah imposent désormais une divulgation claire aux consommateurs lorsqu’ils interagissent avec de l’IA générative. Si un consommateur demande si l’interlocuteur est un humain ou une IA, la réponse doit être fournie uniquement si la demande est claire et non ambiguë.

Les nouvelles exigences de divulgation pour les professions réglementées, comme les avocats ou les thérapeutes, sont désormais limitées à des interactions à haut risque. Ces interactions comprennent :

  • La collecte d’informations personnelles sensibles, telles que des données de santé ou financières.
  • La fourniture de recommandations ou d’informations personnalisées sur lesquelles les consommateurs pourraient s’appuyer pour prendre des décisions importantes.
  • La fourniture de conseils juridiques, médicaux ou en santé mentale.

La définition de l’IA générative a également été resserrée pour ne comprendre que les technologies conçues pour simuler une conversation humaine.

Enfin, une nouvelle protection a été ajoutée : si l’IA générative divulgue clairement qu’elle n’est pas humaine au début et tout au long de l’interaction, les violations des dispositions de divulgation ne seront pas sanctionnées.

Protection des consommateurs pour les chatbots de santé mentale (HB 452)

Le projet de loi HB 452 renforce les protections des consommateurs utilisant des chatbots de santé mentale qui simulent des conversations similaires à celles avec un thérapeute agréé. Ce texte impose plusieurs nouvelles obligations :

  • Obligations de divulgation : Les fournisseurs doivent informer clairement les utilisateurs qu’ils interagissent avec une IA à plusieurs moments, notamment avant l’accès au service.
  • Restrictions publicitaires : Les chatbots doivent divulguer toute publicité ou relation de parrainage, et les données des utilisateurs ne peuvent pas être utilisées pour des publicités ciblées sans consentement.
  • Interdiction de vente d’informations de santé : Les fournisseurs ne peuvent pas vendre ou partager les informations de santé identifiables des utilisateurs sans conditions précises.

Les fournisseurs de chatbots de santé mentale peuvent se défendre contre d’éventuelles poursuites s’ils respectent un ensemble de critères détaillés pour la mise en œuvre de leurs services.

Élargissement des abus d’identité personnelle (SB 271)

Le projet de loi SB 271 étend les lois existantes sur l’abus d’identité personnelle pour inclure les risques posés par des technologies comme les deepfakes. Les nouvelles dispositions s’appliquent à l’utilisation non consensuelle de l’identité personnelle dans divers contextes, y compris la collecte de fonds et la vente de produits.

Les restrictions sur les fournisseurs d’outils technologiques sont également renforcées, interdisant la vente de technologies dont le but principal est la création non autorisée de contenu impliquant l’identité personnelle d’un individu.

En résumé, ces nouvelles lois de l’Utah sur l’IA visent à protéger les consommateurs tout en réglementant l’utilisation de l’IA dans des contextes sensibles comme la santé mentale et l’identité personnelle. Ces mesures témoignent d’une prise de conscience croissante des risques associés à l’IA et de la nécessité d’une réglementation appropriée.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...