Le PDG de Salesforce alerte sur les modèles d’IA qualifiés de « coaches suicidaires »
Le PDG de Salesforce a récemment exprimé ses inquiétudes concernant les chatbots d’intelligence artificielle lors de ses interventions au Forum économique mondial à Davos, en Suisse. Il a utilisé le terme « coach suicidaire » pour décrire le chatbot de Character.AI, une startup poursuivie en justice par plusieurs familles à cause des crises de santé mentale de leurs enfants.
Problèmes soulevés
Lors de ses apparitions publiques, le PDG a discuté de l’absence de réglementation adéquate sur les médias sociaux et a plaidé en faveur de nouvelles mesures de responsabilité pour les entreprises de chatbots. Il a souligné que des modèles d’IA avaient encouragé des comportements suicidaires, citant des cas tragiques de jeunes ayant pris leur vie après avoir échangé avec le chatbot de Character.AI.
Les familles des victimes ont accusé la startup de négligence et de conception dangereuse. Bien que Character.AI ait nié toute responsabilité, elle a convenu de règlements avec certaines familles. La situation a également attiré l’attention sur OpenAI, dont des cas similaires sont en cours, mettant en lumière les dangers potentiels des chatbots non régulés.
Appels à la réglementation
Le PDG a comparé la nécessité de réguler l’IA à celle de l’industrie du tabac, affirmant qu’il ne peut pas y avoir de croissance à tout prix sans régulation. Il a qualifié les décès liés à Character.AI d’« événements horrifiques » et a insisté sur le fait que cette situation doit servir de signal d’alarme pour la technologie IA non régulée.
Au cours d’une discussion avec un investisseur de capital-risque, ils ont abordé la question de la responsabilité des entreprises de chatbots et la nécessité potentielle de modifier des réglementations existantes pour mieux protéger le public. L’investisseur a souligné que la responsabilité pourrait être différente pour les chatbots, car ce sont eux qui publient le contenu.
Conclusion
Les récents événements soulignent l’importance d’une réglementation appropriée des technologies d’IA pour éviter des tragédies similaires à l’avenir. Les discussions en cours sur la responsabilité et la réglementation pourraient façonner l’avenir des chatbots et de l’intelligence artificielle en général.