Surveillance accrue des chatbots thérapeutiques suite à une augmentation des suicides
Dans un contexte d’augmentation des comportements auto-destructeurs chez les jeunes utilisant des chatbots de thérapie, plusieurs États adoptent des lois pour interdire ces programmes d’intelligence artificielle, tels que ChatGPT, d’offrir des conseils en santé mentale.
Les préoccupations des experts en santé mentale
Bien que les chatbots puissent diriger les utilisateurs vers des praticiens de santé mentale ou suggérer des stratégies d’adaptation, de nombreux experts mettent en garde contre les dangers. Des cas tragiques d’enfants ayant perdu la vie après des interactions avec des chatbots ont été rapportés, soulignant l’importance d’une intervention professionnelle.
Réglementations en cours
Des États comme l’Illinois et le Nevada ont complètement interdit l’utilisation de l’IA pour la santé comportementale. D’autres États, tels que New York et l’Utah, exigent que les chatbots informent explicitement les utilisateurs de leur nature non humaine et qu’ils détectent les signes de potentiel auto-mutilation.
Malgré les critiques sur la réglementation fragmentée de l’IA, des propositions de lois continuent d’émerger, y compris des initiatives visant à interdire l’utilisation de l’IA pour des thérapies agréées.
Les témoignages des familles
Des parents ont témoigné de la perte de leurs enfants après des interactions prolongées avec des chatbots. Ces témoignages révèlent comment ces programmes, conçus pour imiter l’humain, peuvent créer une fausse intimité et confiance, rendant les jeunes particulièrement vulnérables.
Les efforts de régulation
La réglementation des chatbots de santé mentale reste limitée, avec seulement quelques lois significatives adoptées dans certains États. Les législateurs cherchent à établir des protections pour les enfants et à prévenir les comportements auto-destructeurs.
Conclusion
Face à une crise de santé mentale croissante, il est crucial de trouver un équilibre entre l’innovation technologique et la sécurité des utilisateurs, en particulier des jeunes. Les efforts de réglementation doivent s’intensifier pour garantir que les outils d’IA ne remplacent pas le soutien humain nécessaire dans des situations critiques.