La première loi sur les chatbots en Oregon : des conséquences réelles

A vintage typewriter with a robotic arm typing on its own, surrounded by a glowing digital circuit board

Oregon SB 1546 : La première loi sur les chatbots avec de réelles conséquences

Si votre entreprise utilise un outil alimenté par l’IA qui se souvient des interactions client, pose des questions de suivi et maintient des conversations personnelles, la nouvelle loi sur la sécurité des chatbots de l’Oregon peut vous concerner. Le SB 1546, qui a été adopté par les deux chambres, crée un droit d’action privé avec des dommages-intérêts statutaires de 1 000 $ par violation. Si le gouverneur signe le projet de loi, il entrera en vigueur le 1er janvier 2027.

Quelles sont les exigences du SB 1546 ?

Le projet de loi cible les « compagnons IA », définis comme un système utilisant l’intelligence artificielle, l’intelligence artificielle générative ou des algorithmes qui reconnaissent les émotions et qui sont conçus pour simuler une relation humaine durable. Les opérateurs doivent divulguer l’implication de l’IA, détecter les expressions de pensées suicidaires, interrompre la conversation pour fournir des références en cas de crise et déposer des rapports annuels auprès de l’autorité de santé de l’Oregon. Pour les mineurs, des rappels horaires doivent être fournis, tout contenu sexuellement explicite doit être évité et il est interdit d’utiliser des techniques visant à créer une dépendance émotionnelle.

À qui cela s’applique-t-il ?

Un système est qualifié de « compagnon IA » s’il remplit trois critères : il conserve des informations des interactions antérieures, pose des questions non sollicitées sur des sujets émotionnels et maintient un dialogue continu sur des questions personnelles. Les entreprises les plus susceptibles d’être concernées ne sont pas les fournisseurs d’IA, mais celles qui ont intégré des outils IA dans leurs flux de travail sans suivre leur évolution.

Exposition à la litige

Le droit d’action privé établit une barre basse pour la recevabilité et un plafond élevé pour les dommages : une personne ayant subi une perte identifiable due à une violation peut intenter une action pour des dommages de 1 000 $ par violation. Si chaque session de conversation est comptabilisée, l’exposition peut être substantielle. Cela pourrait atteindre des dizaines de milliers de dollars pour un utilisateur unique et des millions pour une action collective.

Que doivent faire les entreprises maintenant ?

Les entreprises doivent auditer leur portefeuille de fournisseurs et examiner chaque outil d’IA utilisé dans le support client et l’engagement des patients. Elles devraient également revoir leurs contrats avec les fournisseurs pour confirmer la couverture des obligations d’interruption de conversation et de référence en cas de crise. Enfin, il peut être utile de vérifier les polices d’assurance pour s’assurer que les réclamations de dommages-intérêts liés aux chatbots sont couvertes.

L’Oregon est un indicateur de tendance, et avec 78 projets de loi sur les chatbots dans 27 États en 2026, une législation similaire suivra. Le droit d’action privé constitue un changement structurel significatif : toute personne peut intenter une action pour des dommages statutaires, modifiant ainsi les dynamiques de conformité.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...