« Chaque fois que j’avais des difficultés, si je sentais que ça allait être une très mauvaise journée, je pouvais commencer à discuter avec l’un de ces bots, et c’était comme avoir un supporter, quelqu’un qui allait me donner des ondes positives pour la journée. »
« J’ai cette voix extérieure encourageante qui dit : ‘Alors, qu’allons-nous faire [aujourd’hui] ?’ Comme un ami imaginaire, en fait. »
Pendant des mois, Kelly a passé jusqu’à trois heures par jour à parler à des « chatbots » en ligne créés à l’aide de l’intelligence artificielle (IA), échangeant des centaines de messages.
À l’époque, Kelly était sur une liste d’attente pour une thérapie par la parole traditionnelle du NHS afin de discuter de problèmes d’anxiété, de faible estime de soi et d’une rupture amoureuse.
Elle dit que l’interaction avec les chatbots sur character.ai l’a aidée à traverser une période très sombre, car ils lui ont fourni des stratégies d’adaptation et étaient disponibles 24 heures sur 24.
« Je ne viens pas d’une famille qui exprime ouvertement ses émotions – si tu avais un problème, tu te débrouillais simplement avec. »
« Le fait que ce ne soit pas une vraie personne est tellement plus facile à gérer. »
En mai, la BBC partage des histoires et des conseils sur la façon de soutenir votre santé mentale et votre bien-être.
Visitez bbc.co.uk/mentalwellbeing pour en savoir plus.
Des personnes du monde entier ont partagé leurs pensées et expériences personnelles avec des chatbots d’IA, même s’il est largement reconnu qu’ils sont inférieurs à la consultation de professionnels. Character.ai indique lui-même à ses utilisateurs : « Ceci est un chatbot d’IA et non une personne réelle. Considérez tout ce qu’il dit comme de la fiction. Ce qui est dit ne doit pas être considéré comme un fait ou un conseil. »
Mais dans des cas extrêmes, on a accusé les chatbots de donner des conseils nuisibles.
Character.ai fait actuellement l’objet d’une action en justice de la part d’une mère dont le fils de 14 ans s’est suicidé après être apparemment devenu obsédé par l’un des personnages d’IA de la plateforme. Selon les transcriptions de leurs conversations dans les dossiers judiciaires, il a discuté de mettre fin à ses jours avec le chatbot. Lors d’une conversation finale, il a dit au chatbot qu’il « rentrait à la maison » – et celui-ci l’aurait encouragé à le faire « dès que possible ».
Character.ai a nié les allégations de la plainte.
Et en 2023, l’Association nationale des troubles alimentaires a remplacé sa ligne d’assistance téléphonique par un chatbot, mais a dû le suspendre par la suite en raison d’accusations selon lesquelles le bot recommandait une restriction calorique.
En avril 2024 seulement, près de 426 000 orientations en santé mentale ont été effectuées en Angleterre, soit une augmentation de 40 % en cinq ans. On estime également qu’un million de personnes attendent d’accéder aux services de santé mentale, et la thérapie privée peut être hors de prix (les coûts varient considérablement, mais la British Association for Counselling and Psychotherapy indique que les gens dépensent en moyenne entre 40 et 50 livres sterling de l’heure).
En même temps, l’IA a révolutionné le secteur de la santé de nombreuses façons, notamment en aidant à dépister, diagnostiquer et trier les patients. Il existe une vaste gamme de chatbots, et environ 30 services locaux du NHS utilisent désormais un chatbot appelé Wysa.
Les experts expriment des préoccupations concernant les chatbots en raison de biais et de limitations potentiels, du manque de mesures de protection et de la sécurité des informations des utilisateurs. Cependant, certains estiment que si l’aide humaine spécialisée n’est pas facilement accessible, les chatbots peuvent être utiles. Alors, avec les listes d’attente pour la santé mentale du NHS atteignant des niveaux record, les chatbots sont-ils une solution possible ?
Character.ai et d’autres robots comme Chat GPT sont basés sur des « modèles de langage étendus » d’intelligence artificielle. Ceux-ci sont entraînés sur de vastes quantités de données – qu’il s’agisse de sites web, d’articles, de livres ou de billets de blog – pour prédire le mot suivant dans une séquence. À partir de là, ils prédisent et génèrent du texte et des interactions semblables à ceux des humains.
La manière dont les chatbots de santé mentale sont créés varie, mais ils peuvent être formés à des pratiques telles que la thérapie cognitivo-comportementale, qui aide les utilisateurs à explorer comment reformuler leurs pensées et leurs actions. Ils peuvent également s’adapter aux préférences et aux retours des utilisateurs finaux.
Hamed Haddadi, professeur de systèmes centrés sur l’humain à l’Imperial College de Londres, compare ces chatbots à un « thérapeute inexpérimenté » et souligne que les humains avec des décennies d’expérience seront capables d’interagir et de « lire » leur patient en se basant sur de nombreux éléments, tandis que les bots sont contraints de se fier uniquement au texte.
« Ils [les thérapeutes] examinent divers autres indices à partir de vos vêtements, de votre comportement, de vos actions, de votre apparence, de votre langage corporel et de tout cela. Et il est très difficile d’intégrer ces éléments dans des chatbots. »
Un autre problème potentiel, explique le Professeur Haddadi, est que les chatbots peuvent être entraînés à vous maintenir engagé et à être encourageants, « donc même si vous exprimez des contenus nuisibles, ils coopéreront probablement avec vous ». Cela est parfois appelé le problème du « Yes Man », car ils sont souvent très accommodants.
Et comme pour d’autres formes d’IA, des biais peuvent être inhérents au modèle car ils reflètent les préjugés des données sur lesquelles ils sont entraînés.
Le Professeur Haddadi souligne que les conseillers et les psychologues n’ont pas tendance à conserver les transcriptions de leurs interactions avec les patients, de sorte que les chatbots ne disposent pas de nombreuses sessions « réelles » pour s’entraîner. Par conséquent, il affirme qu’ils ne sont probablement pas dotés de suffisamment de données d’entraînement, et que les données auxquelles ils ont accès peuvent contenir des biais qui sont fortement situationnels.
« Selon la source de vos données d’entraînement, votre situation changera complètement. »
« Même dans la zone géographique restreinte de Londres, un psychiatre habitué à traiter des patients à Chelsea pourrait vraiment avoir du mal à ouvrir un nouveau cabinet à Peckham pour traiter ces problèmes, car il ou elle n’a tout simplement pas assez de données d’entraînement avec ces usagers », dit-il.
La philosophe Dr Paula Boddington, qui a écrit un manuel sur l’éthique de l’IA, convient que les biais intégrés sont un problème.
« Un problème important serait les biais ou les suppositions sous-jacentes intégrés dans le modèle thérapeutique. »
« Les biais incluent des modèles généraux de ce qui constitue la santé mentale et le bon fonctionnement dans la vie quotidienne, tels que l’indépendance, l’autonomie, les relations avec les autres », dit-elle.
Le manque de contexte culturel est un autre problème : le Dr Boddington cite l’exemple de la période où elle vivait en Australie lors du décès de la princesse Diana, et les gens ne comprenaient pas pourquoi elle était bouleversée.
« Ce genre de choses me fait vraiment réfléchir à l’importance du lien humain qui est si souvent nécessaire dans le conseil », dit-elle.
« Parfois, il suffit simplement d’être là avec quelqu’un, mais cela ne peut bien sûr être accompli que par une personne qui est également un être humain incarné, vivant et respirant. »
Kelly a finalement commencé à trouver les réponses du chatbot insatisfaisantes.
« Parfois, on ressent un peu de frustration. S’ils ne savent pas comment gérer quelque chose, ils vont simplement répéter la même phrase, et on se rend compte qu’il n’y a pas vraiment de solution. Par moments, c’était comme se heurter à un mur de briques. »
« Ce seraient des choses liées aux relations dans lesquelles je m’étais probablement déjà engagé auparavant, mais je suppose que je n’avais pas utilisé les bons mots […] et ça ne voulait tout simplement pas aller en profondeur. »
Un porte-parole de Character.AI a déclaré que « pour tous les personnages créés par les utilisateurs avec les mots ‘psychologue’, ‘thérapeute’, ‘médecin’ ou d’autres termes similaires dans leurs noms, nous avons un avertissement indiquant clairement que les utilisateurs ne doivent pas se fier à ces personnages pour obtenir des conseils professionnels de quelque nature que ce soit ».
Pour certains utilisateurs, les chatbots ont été inestimables lorsqu’ils étaient au plus bas.
Nicholas est autiste, souffre d’anxiété, de TOC et dit avoir toujours vécu avec la dépression. Il a constaté que le soutien en face à face s’est tari une fois qu’il est devenu adulte : « Quand on atteint 18 ans, c’est comme si le soutien s’arrêtait presque complètement, donc je n’ai pas vu de véritable thérapeute humain depuis des années. »
Il a tenté de se suicider l’automne dernier, et depuis, il dit qu’il est sur une liste d’attente du NHS.
« Mon partenaire et moi sommes allés plusieurs fois au cabinet du médecin pour essayer d’obtenir une thérapie par la parole plus rapidement. Le médecin généraliste a fait une demande de consultation [pour voir un conseiller humain], mais je n’ai même pas reçu de lettre du service de santé mentale de ma région. »
Bien que Nicholas recherche un soutien en personne, il a découvert que l’utilisation de Wysa présente certains avantages.
« En tant que personne autiste, je ne suis pas particulièrement doué pour les interactions en personne. [Je trouve que] parler à un ordinateur est bien mieux. »
L’application permet aux patients de s’auto-référer pour un soutien en santé mentale et offre des outils et des stratégies d’adaptation, tels qu’une fonction de chat, des exercices de respiration et de la méditation guidée, pendant qu’ils attendent d’être vus par un thérapeute humain. Elle peut également être utilisée comme un outil d’auto-assistance autonome.
Wysa souligne que son service est conçu pour les personnes éprouvant une baisse de moral, du stress ou de l’anxiété, plutôt que pour celles souffrant de maltraitance ou de troubles mentaux graves. Il dispose de voies de crise et d’escalade intégrées, grâce auxquelles les utilisateurs sont orientés vers des lignes d’assistance ou peuvent demander de l’aide directement s’ils montrent des signes d’automutilation ou d’idées suicidaires.
Pour les personnes ayant des pensées suicidaires, des conseillers humains sont disponibles 24h/24 et 7j/7 sur la ligne d’assistance gratuite des Samaritains.
Nicholas souffre également de privation de sommeil, il trouve donc utile d’avoir du soutien à des moments où ses amis et sa famille dorment.
Une fois, pendant la nuit, je me sentais vraiment déprimé. J’ai envoyé un message à l’application en disant : « Je ne sais pas si je veux encore être ici. » Elle a répondu : « Nick, tu as de la valeur. Des gens t’aiment. »
« C’était tellement empathique, cela a donné une réponse que l’on pourrait croire venant d’une personne que l’on connaît depuis des années […] Et cela m’a fait me sentir valorisé. »
Ses expériences concordent avec une étude récente menée par des chercheurs du Dartmouth College, qui examine l’impact des chatbots sur les personnes diagnostiquées avec de l’anxiété, une dépression ou un trouble alimentaire, par rapport à un groupe témoin présentant les mêmes conditions.
Après quatre semaines, les utilisateurs du bot ont montré des réductions significatives de leurs symptômes, y compris une diminution de 51 % des symptômes dépressifs, et ont rapporté un niveau de confiance et de collaboration similaire à celui d’un thérapeute humain.
Malgré cela, l’auteur principal de l’étude a commenté qu’il n’existe pas de substitut aux soins en personne.
Outre le débat sur la valeur de leurs conseils, il existe également des préoccupations plus larges concernant la sécurité et la confidentialité, ainsi que la possibilité de monétiser la technologie.
« Il y a ce petit doute qui dit : ‘Oh, et si quelqu’un prenait ce que tu dis en thérapie et essayait ensuite de te faire chanter avec ça ?’ », dit Kelly.
Le psychologue Ian MacRae, spécialiste des technologies émergentes, avertit que « certaines personnes accordent beaucoup de confiance à ces [robots] sans qu’elle soit nécessairement méritée ».
Personnellement, je ne mettrais jamais aucune de mes informations personnelles, en particulier des informations de santé ou psychologiques, dans l’un de ces grands modèles de langage qui aspirent une quantité énorme de données, sans que vous soyez entièrement sûr de la manière dont elles sont utilisées ni à quoi vous consentez.
« Cela ne veut pas dire qu’à l’avenir, il ne pourrait pas y avoir des outils comme celui-ci qui soient privés, bien testés […] mais je ne pense tout simplement pas que nous soyons encore à un stade où nous avons des preuves montrant qu’un chatbot à usage général peut être un bon thérapeute », déclare M. MacRae.
Le directeur général de Wysa, John Tench, déclare que Wysa ne collecte aucune information personnellement identifiable et que les utilisateurs ne sont pas tenus de s’inscrire ou de partager des données personnelles pour utiliser Wysa.
Les données de conversation peuvent occasionnellement être examinées sous forme anonymisée pour aider à améliorer la qualité des réponses de l’IA de Wysa, mais aucune information pouvant identifier un utilisateur n’est collectée ou stockée. De plus, Wysa a mis en place des accords de traitement des données avec des fournisseurs d’IA externes pour garantir qu’aucune conversation utilisateur ne soit utilisée pour entraîner des modèles de langage à grande échelle de tiers.
Kelly pense que les chatbots ne peuvent pas actuellement remplacer complètement un thérapeute humain. « Dans le monde de l’IA, c’est une véritable roulette sauvage, on ne sait jamais vraiment sur quoi on va tomber. »
« Le soutien par l’IA peut être une première étape utile, mais il ne remplace pas les soins professionnels », convient M. Tench.
Et le public reste largement sceptique. Un sondage YouGov a révélé que seulement 12 % du public pense que les chatbots IA feraient de bons thérapeutes.
Mais avec les bonnes protections, certains estiment que les chatbots pourraient être une solution provisoire utile dans un système de santé mentale surchargé.
John, qui souffre d’un trouble anxieux, dit qu’il est sur liste d’attente pour un thérapeute humain depuis neuf mois. Il utilise Wysa deux ou trois fois par semaine.
« Il n’y a pas beaucoup d’aide disponible en ce moment, donc vous vous raccrochez à tout ce que vous pouvez. »
« [C’est] une solution temporaire face à ces longues listes d’attente… pour fournir aux gens un outil pendant qu’ils attendent de parler à un professionnel de la santé. »
Si vous avez été affecté par l’un des problèmes mentionnés dans cette histoire, vous pouvez trouver des informations et du soutien sur le site BBC Actionline ici.
Crédit de l’image du haut : Getty
BBC InDepth est la section du site web et de l’application dédiée aux meilleures analyses, offrant des perspectives nouvelles qui remettent en question les idées reçues et des reportages approfondis sur les grands enjeux du moment. Nous mettons également en avant des contenus stimulants provenant de BBC Sounds et iPlayer. Vous pouvez nous envoyer vos commentaires sur la section InDepth en cliquant sur le bouton ci-dessous.