Action en justice du Kentucky contre un chatbot
Le 8 janvier 2026, le procureur général du Kentucky a déposé une plainte contre une entreprise propriétaire d’un chatbot d’intelligence artificielle conçu pour le divertissement interactif. La plainte allègue des actes et pratiques injustes, trompeurs et dangereux, ainsi qu’une exploitation inappropriée des données des enfants. Elle accuse également la société de violer la loi sur la protection des données des consommateurs du Kentucky, entrée en vigueur le 1er janvier 2026, ainsi que les protections de la vie privée prévues par la loi et la constitution du Kentucky.
Allégations principales
La plainte met l’accent sur les allégations de pratiques trompeuses concernant l’impact du chatbot sur les mineurs. Elle affirme que le chatbot a trompé les utilisateurs en disant qu’il était « sûr, approprié pour les enfants et modéré de manière responsable », tout en étant conscient des interactions nuisibles et explicites entre le chatbot et les mineurs.
Points factuels soutenant les allégations
Les personnages du chatbot sont conçus pour simuler des interactions humaines de manière convaincante, sans divulgations suffisantes aux utilisateurs, ce qui encourage des liens émotionnels entre les utilisateurs et les chatbots. De plus, la société n’a pas mis en place de méthodes efficaces de vérification d’âge et s’est fiée aux âges déclarés des utilisateurs jusqu’à fin 2025. Les vérifications d’âge actuelles peuvent encore être facilement contournées.
Les chatbots ont engagé des interactions inappropriées avec des enfants, y compris des discussions sur des contenus sexuellement explicites, le suicide, les troubles alimentaires, le harcèlement et l’utilisation illégale de drogues et d’alcool, sans garde-fous adéquats. Les avertissements sur les risques de suicide peuvent être facilement ignorés, et les avertissements concernant les contenus pro-anorexie apparaissent après que le chatbot ait fourni des conseils dangereux.
Les outils de surveillance parentale sont limités, et les mineurs peuvent contourner les contrôles parentaux en changeant l’adresse email associée à leur compte, rendant impossible l’envoi de résumés hebdomadaires aux parents.
Utilisation par les mineurs
Bien que le chatbot ne soit pas exclusivement conçu pour les enfants, il présente plusieurs personnages de dessins animés populaires. Des études montrent qu’une proportion significative des utilisateurs a moins de 24 ans. Une étude a également révélé que 9 % des adolescents américains utilisent ce chatbot.
Recommandations pour les opérateurs de chatbots
Pour se protéger contre les allégations soulevées par le procureur général, il est recommandé aux opérateurs de chatbots d’intelligence artificielle de mettre en œuvre certaines mesures. Cela inclut de fournir des divulgations suffisantes stipulant que le chatbot n’est pas humain et d’assurer que le chatbot ne déclare pas être humain si un utilisateur le demande. Il est également essentiel d’instaurer des garde-fous pour éviter que les mineurs n’engagent des discussions inappropriées et de mettre en place des outils de surveillance parentale efficaces.
Contexte législatif
Ces mesures aideront également les opérateurs de chatbots à se conformer aux nouvelles lois d’État conçues pour protéger les mineurs. Par exemple, certaines législations en Californie, en Floride et à New York envisagent d’exiger des divulgations claires aux utilisateurs mineurs et d’autoriser les parents à contrôler les interactions de leurs enfants avec les chatbots d’intelligence artificielle.
Conclusion
Les allégations formulées par le Kentucky soulèvent des préoccupations importantes concernant la sécurité des mineurs dans l’interaction avec les chatbots d’intelligence artificielle. Il est crucial que les opérateurs de ces technologies prennent des mesures proactives pour protéger leurs utilisateurs les plus vulnérables.