L’intelligence artificielle peut-elle remplacer la thérapie ?

Avec l’essor fulgurant de l’intelligence artificielle conversationnelle, de plus en plus de personnes se tournent vers des outils comme ChatGPT pour parler de leurs difficultés psychologiques. Accessible en tout temps, gratuit ou peu coûteux, disponible sans délai : l’IA semble répondre à un besoin réel dans un contexte où l’accès aux services en santé mentale demeure limité.

Quand on ne va pas bien et qu’on ne sait pas à qui parler, avoir une “oreille” disponible à 2 h du matin peut sembler rassurant. Mais peut-elle réellement remplacer une démarche thérapeutique humaine ?

Les recherches récentes montrent que l’IA peut effectivement offrir un soutien ponctuel. Des utilisateurs rapportent y trouver du réconfort, une aide pour organiser leurs pensées, explorer leurs émotions ou traverser des périodes difficiles comme le deuil, l’isolement ou la surcharge émotionnelle (Giray, 2025). Dans certains cas, l’outil agit comme un espace transitoire permettant de mettre des mots sur un vécu ou de se sentir moins seul à un moment précis. Autrement dit, pour certaines personnes, écrire à une IA, c’est un peu comme tenir un journal qui répond, ça aide à clarifier ce qui se passe à l’intérieur.

Cependant, ces mêmes études soulignent clairement les limites et les risques d’un tel usage. L’IA ne vit aucune émotion et elle produit des réponses plausibles, mais sans compréhension incarnée de l’expérience humaine. Donc même si ses mots peuvent sonner justes, elle ne “ressent” rien de ce que vous traversez, elle s’en fou.

Giray (2025) met en évidence plusieurs enjeux préoccupants, notamment le risque de développer une dépendance à l’outil, le brouillage des frontières entre relations humaines et interactions artificielles, ainsi que des effets potentiellement problématiques sur des processus sensibles comme le deuil. L’IA peut soutenir, mais elle ne peut contenir ni transformer l’expérience émotionnelle en profondeur (Giray, 2025).

D’un point de vue clinique, d’autres limites importantes apparaissent.

Les modèles de langage se montrent généralement efficaces pour répondre à des questions générales, mais leur fiabilité diminue lorsqu’ils sont confrontés à des domaines spécialisés ou controversés en psychologie (Baltic Journal of Sport and Health Sciences, 2023). Des erreurs conceptuelles, des réponses inexactes ou superficielles ont été observées, ce qui rend leur utilisation risquée dans des contextes exigeant un jugement clinique fin (Baltic Journal of Sport and Health Sciences, 2023).

Contrairement à un·e thérapeute, l’IA ne peut ajuster son intervention en fonction de l’état émotionnel fluctuant d’une personne ni détecter les mécanismes d’évitement ou les patterns inconscients. Elle ne remarque pas quand on évite un sujet, quand une émotion déborde ou quand quelque chose d’important n’est pas dit.

Les travaux portant sur l’interaction entre psychologie et IA (Voronin & Palenova, 2024) rappellent également que la qualité des réponses dépend fortement de la manière dont les questions sont formulées. Les phénomènes de « hallucinations », l’absence de sources explicites et la génération de données non vérifiables exigent une vigilance constante et une capacité critique que tous les utilisateurs ne possèdent pas (Voronin & Palenova, 2024).

En clair : si on ne sait pas quoi demander, on peut recevoir des réponses qui semblent crédibles, mais qui ne le sont pas toujours.

Ainsi, la littérature converge vers une conclusion claire :

L’intelligence artificielle peut constituer un outil complémentaire en santé mentale, mais elle ne saurait remplacer la thérapie. Le cœur du travail psychologique repose sur l’alliance thérapeutique, la corégulation émotionnelle, l’intuition clinique et la présence humaine incarnée, des éléments impossibles à reproduire par un système automatisé (Giray, 2025).

  • Aucune technologie ne peut remplacer la chaleur d’une présence humaine ni le sentiment d’être réellement vu et compris.
  • Parler à une IA peut parfois aider à amorcer une réflexion ou à traverser un moment difficile.
  • Un vrai travail sur soi ne se fait pas en solo devant un écran : Ça se construit dans la relation, le temps et la rencontre humaine.

Giray, L. (2025). Cases of Using ChatGPT as a Mental Health and Psychological Support Tool. Journal of Consumer Health on the Internet29(1), 29–48. https://doi.org/10.1080/15398285.2024.2442374

Voronin A.N., Palenova V.V. The Future of Psychology: Is Effective Interaction with ChatGPT Possible? // RUDN Journal of Psychology and Pedagogics. – 2024. – Vol. 21. – N. 3. – P. 831-857. doi: 10.22363/2313-1683-2024-21-3-831-857

ChatGPT is a Breakthrough in Science and Education but Fails a Test in Sports and Exercise Psychology. (2023). Baltic Journal of Sport and Health Sciences1(128), 25-40. https://doi.org/10.33607/bjshs.v1i128.1341

Vous devriez également aimer

Valynsa Pierre

Bienvenue à Valynsa Pierre

Mon cheminement professionnel n’a jamais été une route droite et facile. Je dirais même qu’il ressemble souvent aux  parcours des personnes que j’accompagne : fait

Chanel Lussier

Un moment pour ralentir et se retrouver

La période estivale, souvent plus douce et moins chargée, peut offrir un espace idéal pour ralentir, se recentrer et amorcer un travail sur soi. C’est