Analyse des nouvelles lois sur les chatbots compagnons d’IA
Les entreprises qui exploitent des chatbots compagnons en Californie ou à New York sont désormais soumises à de nouvelles obligations légales, notamment en matière de notification aux utilisateurs et de protocoles pour prévenir l’auto-mutilation.
Le 1er janvier 2026, la loi californienne sur les chatbots compagnons (SB 243) est entrée en vigueur après avoir été signée par le gouverneur. Cette loi impose certaines obligations aux opérateurs de chatbots compagnons pour mettre en œuvre des mesures de sécurité « critiques, raisonnables et réalisables » axées sur la protection des mineurs. La loi de Californie s’inspire de la loi sur les modèles d’IA compagnons de New York, qui a été mise en œuvre le 5 novembre 2025.
Contexte
Avec l’IA omniprésente dans presque tous les aspects de notre vie technologique, les chatbots sont l’une des formes les plus accessibles de technologie alimentée par l’IA. Conçus pour engager des interactions humaines, les chatbots compagnons créent un lien émotionnel entre l’utilisateur et le chatbot. Il existe une préoccupation croissante parmi divers acteurs (médias, gouvernement, utilisateurs) concernant l’interaction des individus avec ces chatbots et les conséquences sociétales potentielles.
Alors que d’autres États ont adopté des lois obligeant les chatbots à divulguer qu’ils sont alimentés par l’IA, New York a été le premier à imposer des obligations supplémentaires aux opérateurs de chatbots compagnons. Reconnaissant l’utilisation croissante de ces outils pour le soutien émotionnel ou mental, la loi de New York vise à garantir que leur utilisation ne mette pas en danger la santé mentale des individus, en particulier des mineurs.
Comparaison des statuts de New York et de Californie
Le tableau ci-dessous compare les définitions, les obligations légales et les mécanismes d’application décrits dans les lois de New York et de Californie.
Obligations de notification aux utilisateurs
Les opérateurs doivent fournir une notification claire et visible à l’utilisateur au début de toute interaction avec un chatbot compagnon, indiquant que l’utilisateur ne communique pas avec un humain. En Californie, des obligations spécifiques de notification pour les mineurs sont également imposées.
Protocoles de transparence
Les opérateurs doivent maintenir des protocoles pour détecter et traiter les expressions d’idéation suicidaire ou d’auto-mutilation par les utilisateurs. En Californie, les opérateurs doivent également publier des détails sur ces protocoles sur leur site web.
Mécanismes d’application
Les lois de New York prévoient l’application par le procureur général, tandis qu’en Californie, les opérateurs doivent faire un rapport annuel sur leur conformité à la loi.
Implications
Les entreprises doivent d’abord évaluer leurs offres de chatbots et déterminer si elles relèvent de la définition d’un « opérateur ». Si c’est le cas, elles doivent mettre en œuvre les protocoles de transparence nécessaires et s’assurer que les notifications concernant le caractère artificiel des chatbots sont claires. Pour les chatbots proposés aux utilisateurs en Californie, des mesures additionnelles doivent être prises pour garantir la conformité aux obligations spécifiques aux mineurs.
Conclusion
Avec l’augmentation de l’utilisation des chatbots compagnons, les nouvelles législations imposent des responsabilités importantes aux opérateurs. La conformité à ces lois est essentielle pour protéger les utilisateurs, en particulier les mineurs, et pour éviter des conséquences juridiques.