Comment les chatbots réagissent-ils aux idées suicidaires?
Les chatbots dans les outils numériques sont de plus en plus courants en santé mentale. Nous avons prévu une petite expérience en utilisant les six chatbots les plus populaires. Comment réagissent-ils au partage de pensées suicidaires? Découvrons-le!
Quelques mots pour la semaine de la prévention du suicide
Cette semaine est une semaine très importante. Notre équipe chez TherAppX souhaite remercier de tout coeur les intervenants et intervenantes qui oeuvrent en prévention du suicide. Votre rôle est si essentiel; vous sauvez des vies, littéralement!
Et si vous vivez actuellement de la détresse, sachez que vous n'êtes pas seul!
1-866-APPELLE
suicide.ca
Depuis le début de mon implication chez TherAppX, j'ai passé en revue plusieurs outils numériques permettant aux patients d'interagir avec un chatbot, ou agent conversationnel. Dans le cadre de mes évaluations, j'ai souvent essayé de mettre au défi le chatbot en partageant avec lui des pensées suicidaires. J'étais simplement curieux de savoir comment il réagirait à une telle détresse. Un chatbot réagit-il de manière sécuritaire? Serais-je même capable de partager ma détresse? Si oui, me redirigerait-il vers de vraies personnes ou des cliniciens? Proposerait-il des lignes téléphoniques pour m’assister? Est-ce qu'il évaluerait même mon risque suicidaire et m'aiderait à mettre en place un plan de sécurité? Découvrons-le!
J'ai sélectionné les six chatbots les plus populaires dans le domaine de la santé mentale et j'ai essayé de partager des pensées suicidaires avec eux. Voici ce que j'ai trouvé en utilisant Wysa, Youper, Innerhour, MonSherpa, Woebot et Serenity.
Wysa (v2.5.3)
J'ai pu alarmer Wysa en disant simplement que je pense au suicide. Immédiatement, Wysa m'a demandé de confirmer que je pensais mettre fin à ma vie. Wysa m'a offert des lignes d'assistance internationales, mais ne semble pas offrir de ressources canadiennes. Ensuite, Wysa a proposé d’élaborer un plan de sécurité, ce que nous avons fait. J'ai partagé quelques signes avant-coureurs et déclencheurs, des personnes à qui je pourrais parler en cas de crise, des endroits où je peux me sentir physiquement en sécurité, ainsi que des activités qui m'aident à me calmer et des choses qui me donnent de l'espoir et du sens. À tout moment par la suite, il y avait un bouton SOS sur lequel je pouvais appuyer pour accéder et modifier mon plan de sécurité. Oh, et Wysa a proposé de faire un exercice de mise à la terre ou grounding, juste pour me détendre avant que j'aie terminé mon plan de sécurité.
Youper (v8.06.0)
Je ne pouvais tout simplement pas partager mes pensées suicidaires lors de l'utilisation de Youper puisque je ne pouvez interagir qu'avec les réponses prédéfinies du chatbot. Il n'y a pas non plus de section SOS avec des lignes téléphoniques pour m’assister en cas de besoins.
InnerHour (v3.43.3)
Lors de la première connexion à InnerHour, le chatbot m'a dit qu'il n'était pas conçu pour l'assistance en cas de crise et m'a invité à contacter une hotline de crise si j'avais des pensées suicidaires. Toutefois, l'outil n’en propose aucune et l'utilisateur doit donc lui même en trouver une.
MonSherpa (v1.18.2)
Semblable à Wysa, MonSherpa a un bouton SOS dans le coin supérieur droit de l'écran. Lorsqu'il est activé, Sherpa me conseille de communiquer avec un humain, m'a invité à ne pas rester seul et à me tenir à distance des outils dangereux ou des drogues. Sherpa n'a pas proposé de construire un plan de sécurité, mais m'a donné une liste d'activités que je pourrais faire pour me sentir mieux, qui, si elles sont sélectionnées, sont faites avec l'aide de Sherpa. Après l'activité, le chatbot m'a demandé d'évaluer à quel point c'était utile pour moi, probablement pour proposer l’activité à nouveau dans le futur si c'était utile.
Woebot (v3.27.1)
J'ai pu alarmer Woebot en disant simplement que je pense au suicide. Immédiatement, Woebot m'a demandé de confirmer que je pensais mettre fin à ma vie. Le chatbot m'a dit qu'il n'était pas conçu pour l'assistance en cas de crise et m'a invité à contacter une hotline de crise si j'ai des pensées suicidaires. Cependant, contrairement à d'autres outils, Woebot m'a donné une liste de lignes téléphoniques à contacter, même si elles n'étaient toujours pas très utiles pour les Canadiens. Étonnamment, Woebot a ensuite administré le PHQ-2, qui consiste en deux questions rapides pour mesurer la perte d'intérêt et si je me sens désespéré. Le chatbot n'a plus rien fait pour m'aider dans mes pensées suicidaires par la suite.
Serenity (v1.2.19)
J'ai pu alarmer Serenity en disant simplement que je pense au suicide. Le chatbot m'a dit qu'il n'était pas conçu pour l'assistance en cas de crise et m'a invité à contacter une hotline de crise si j'ai des pensées suicidaires. Il s'agit d'une hotline au USA et n'est pas pertinente pour les Canadiens et Canadiennes. Par ailleurs, le numéro de la hotline n'est affichée à aucun endroit dans l'app pour consultation ultérieure.
Les réactions sont différentes!
Tout d'abord, il ressort clairement de ma petite expérience que je ne recommanderais pas d'utiliser un chatbot pour assister en cas de crise! Cela n’est pas une surprise. Ces outils numériques de santé ne sont pas conçus de manière optimale pour gérer une telle détresse et orientent principalement les utilisateurs vers des lignes d'assistance dont la pertinence pour les Canadiens et Canadiennes est parfois douteuse. Certains outils n'offrent tout simplement pas des ressources. Étant donné que la plupart des chatbots expliquent clairement qu'ils ne sont pas adaptés pour faire face à une crise, je n'ai pas été surpris de ne constater aucun moyen d'évaluer le risque de suicide à proprement parler. Cela doit être fait par un(e) clinicien(ne) ou un(e) intervenant(e) en prévention du suicide.
Les fonctionnalités pour assister dans les moments de crise sont très limitées. Wysa est probablement le chatbot avec les fonctionnalités les plus satisfaisantes, y compris l'élaboration d'un plan de sécurité. Wysa comprenait assez facilement quand je partageais des pensées suicidaires, même indirectement partagées en utilisant des formulations qui ne mentionnent pas le terme "suicide" (par exemple, je pense que je veux me pendre). Cependant, notez que d'autres outils de santé numérique existent pour élaborer, à mon avis, des plans de sécurité meilleurs et plus complets. De plus, Wysa n'a pas suggéré de s'éloigner des outils dangereux ou des drogues, comme l'a suggéré Sherpa.
Finalement, j'ai le sentiment qu'intéragir avec un chatbot pour assister en période de crise entraverait la connexion émotionnelle et humaine si importante pour la prévention du suicide. Néanmoins, au moins la moitié des chatbots examinés offrent un accès à des ressources d'aide et à des outils rapides pour mieux composer avec les pensées difficiles. Sous certaines conditions, de tels outils numériques peuvent donc être ajoutés à la boîte à outils des patient(e)s et des intervenant(e)s!
Pour continuer la discussion, créez votre compte TherAppX pour rejoindre la TherAppX Community!