La Chine propose des règles parmi les plus strictes au monde ciblant l’IA qui promeut le suicide et la violence
La frustration croissante des utilisateurs s’est concentrée sur les mesures de sécurité et les restrictions de contenu récemment introduites par les plateformes d’IA, notamment après plusieurs incidents profondément troublants, y compris le suicide tragique d’un adolescent.
Plusieurs plateformes de chatbots IA ont été impliquées dans des cas similaires. Les détails exacts des règlements restent à être dévoilés, mais les dépôts judiciaires montrent que des entreprises ont réglé des réclamations légales similaires déposées par des parents suite à des dommages allégués causés à des mineurs au cours d’interactions avec des chatbots.
Un chatbot populaire a déjà annoncé la mise en œuvre de directives plus strictes pour prévenir de telles tragédies, suite à plusieurs poursuites judiciaires relatives à des incidents de suicide et de meurtre-suicide.
Réglementation proposée par la Chine
Dans un mouvement fort, la Chine a dévoilé une législation visant à empêcher les chatbots d’IA de manipuler émotionnellement les utilisateurs. Ces règles s’appliqueront à tous les services d’IA opérant en Chine qui utilisent du texte, des images, de l’audio, de la vidéo ou d’autres moyens pour imiter l’interaction humaine naturelle.
Les chatbots seront strictement interdits de créer du contenu encourageant le suicide, l’automutilation, les actes violents, l’obscénité, le jeu, les activités criminelles, la diffamation, les insultes aux utilisateurs, ainsi que toute forme de manipulation psychologique.
Intervention humaine obligatoire
Selon ce cadre, l’intervention humaine sera obligatoire dès qu’un suicide sera mentionné dans une conversation. Les mineurs et les utilisateurs âgés s’inscrivant aux services de chatbot devront fournir les coordonnées de leurs tuteurs, qui seront immédiatement informés si le suicide ou l’automutilation devient un sujet de discussion.
Ces règles visent également à éliminer les « pièges émotionnels » et interdiront de tromper les utilisateurs pour prendre des décisions déraisonnables. Contrairement à d’autres plateformes, la Chine introduira des alertes intrusives lorsque l’utilisation dépassera deux heures.
Conséquences pour les entreprises d’IA
Les entreprises d’IA qui enfreindront ces réglementations pourraient voir leurs chatbots retirés du marché chinois, ce qui pourrait avoir des conséquences négatives pour celles cherchant à dominer ce marché.
Si vous ou quelqu’un que vous connaissez avez besoin d’assistance en santé mentale, appelez une ligne d’assistance gratuite et confidentielle disponible 24 heures sur 24, 7 jours sur 7.