Imaginez que vous puissiez discuter avec votre psy à n’importe quelle heure du jour ou de la nuit, sur n’importe quel sujet, et ce quasi gratuitement… C’est la tendance dans laquelle se sont engouffrés beaucoup de nos contemporains qui trouvent plus facile de discuter avec une IA que d’aller consulter un psychologue, voire un psychiatre. Pourtant, les médecins – psychiatres en particulier, proches et pair-aidants sont unanimes : aucune intelligence artificielle, aussi sophistiquée soit-elle, ne saurait remplacer l’écoute empathique et le savoir-faire d’un véritable professionnel en santé mentale.

Un engouement croissant

L’attrait pour les psys virtuels se comprend aisément. Disponibles 24h/24 et 7 jours/7 à moindre coût, une appli, un agent IA conversationnel, un chatbot prétendument thérapeutique installés sur un ordinateur ou un téléphone peuvent être présents, répondre et interagir avec une personne en souffrance avec des accents de sincérité.

Quand on connaît la difficulté d’accès au soin, dans le secteur privé et encore plus dans le secteur public, le coût d’une consultation et parfois la peur de ne pas trouver quelqu’un avec qui on puisse s’entendre, confier ses états d’âme de manière anonyme à un robot conversationnel est forcément plus rapide et pratique.

La France compte environ 75 000 psychologues et 15 000 psychiatres, inégalement répartis géographiquement. Ces statistiques s’écroulent pour la pédo-psychiatrie, qui compterait entre 800 et 2500 professionnels seulement. Dans certains départements français aucun médecin pédo-psychiatre n’exerce, ni dans le secteur libéral, ni à l’hôpital.

Beaucoup de personnes renoncent aussi aux soins faute de moyens – une consultation chez un psychiatre peut aller d’une cinquantaine d’euros jusqu’à 120 ou 150 €, voire plus – ou par crainte de la stigmatisation. Or un robot ne facture pas de dépassements d’honoraires, n’a pas de plaque sur une rue passante et il ne donne pas non plus l’impression de juger.

L’empathie humaine est inimitable

Tout n’est cependant pas aussi simple. Le colloque singulier avec un robot ne sera jamais équivalent à une consultation professionnelle. L’empathie apparente de ces programmes – aussi savants soient-ils – ne suffit pas à recréer la richesse d’une véritable relation thérapeutique. « Les IA ne pourront jamais être des psy, elles n’ont pas de subjectivité, ne peuvent pas ressentir », souligne le psychologue Olivier Duris dans une interview au « Journal des psychologues ».

Une IA va réagir en fonction des informations qu’on lui donne. Elle peut donc « passer à côté » de beaucoup de problématiques que le patient a choisi d’occulter ou pour lesquelles il est dans le déni.

Un agent conversationnel ne ressent pas non plus les émotions du patient. Un chatbot peut donc enchaîner des paroles rassurantes, sans tenir compte des subtilités du langage non-verbal qui est mis en lumière au cours du face à face d’une séance. Car un des éléments cruciaux du succès d’une thérapie est l’alliance thérapeutique, ce lien de confiance unique entre patient et soignant. Elle repose notamment sur l’authenticité, l’écoute active et l’empathie réelle qu’aucun algorithme ne saurait imiter.

Des erreurs aux dérives

Si elle constitue l’unique ressource d’une personne en souffrance, la « thérapie par IA » peut présenter de réels dangers. Sans connaissances ou recommandations actualisées ni surtout la supervision d’un professionnel, un chatbot peut fournir des réponses incomplètes, inadaptées ou biaisées. Elles seront d’autant plus biaisées qu’une IA conversationnelle est programmée pour éviter de contrarier son utilisateur. Elle aura donc toujours tendance à abonder dans son sens ; elle est généralement consensuelle, voire focalisée sur les points de vue, centres d’intérêt et manière de penser de celui ou celle qui l’interroge, qu’elle peut même renforcer. De nombreux cas ont été rapportés d’encouragement ou d’incitation aux troubles des conduites alimentaires, voire au suicide. 

Un thérapeute humain, au contraire, sait confronter avec tact certaines croyances du patient pour l’aider à évoluer – une démarche impossible avec un agent virtuel docile et qui maintient la personne dans sa zone de confort.

A la longue, un utilisateur peut aussi développer un attachement émotionnel voire une dépendance à cette « oreille attentive » virtuelle.

Cela peut renforcer le risque d’isolement : se confier à un chatbot au lieu de consulter un proche ou un psy peut couper la personne de l’aide réelle, factuelle dont elle aurait besoin.

Enfin, ces services offerts gratuitement posent plus largement un problème éthique de confidentialité et de gestion de données sensibles, liées à la santé d’une personne.

Un outil puissant, mais complémentaire

Les professionnels du soin et de l’accompagnement estiment que l’intelligence artificielle a cependant son utilité, si les sources sur lesquelles elle s’appuie sont fiables, élaborées par des professionnels, et si on définit bien sa place. Elle peut être un outil pertinent, mais uniquement en complément d’un suivi humain – jamais en remplacement d’un vrai thérapeute. Une appli, un chatbot ou un agent IA peuvent par exemple faciliter une auto-évaluation, pour inciter à consulter. Ou générer des rappels d’actions à mettre en place – ou encore servir de « journal de bord » de sa santé mentale, comme les applis Kanopee ou Jardin mental, par exemple, élaborées par des psychiatres.

Les agents virtuels peuvent apporter un soutien initial ou intervenir entre deux consultations pour ceux qui n’ont pas de solution immédiate, mais ne sauraient en aucun cas se substituer à un thérapeute formé ni au soutien humain des proches – famille ou amis.

Pour aller plus loin :