L’intelligence artificielle (IA) a discrètement fait son entrée dans le champ de la santé mentale. Des chatbots offrant un soutien émotionnel aux outils de transcription capables d’analyser le ton et les émotions, l’IA est de plus en plus présentée comme une alliée prometteuse, tant pour les thérapeutes que pour les personnes accompagnées.
Cependant, pour de nombreux praticiens, cette nouvelle réalité soulève une question fondamentale :
un outil non humain peut-il véritablement soutenir une présence empathique, fondement même de la relation thérapeutique ?
Cette question invite à la fois à la curiosité et à la prudence. En tant que thérapeutes, coachs et accompagnants, nous savons que la présence ne peut être ni codée ni automatisée. Pourtant, explorer l’IA en thérapie nous permet d’approfondir notre compréhension de ce que signifie être humain, et de la manière dont la technologie pourrait trouver sa place dans un monde fondé sur la compassion.
Comprendre la présence empathique
Au cœur des relations de guérison se trouve la présence empathique. Plus qu’une compréhension des émotions d’autrui, elle correspond au ressenti d’être harmonisé, réceptif et profondément ancré dans l’expérience de l’autre.
En thérapie, la présence empathique n’est pas une technique, mais un état d’être. Elle émerge de la disposition du praticien à être pleinement présent, à écouter au-delà des mots, attentif aux signaux subtils du corps, de la respiration et du silence.
Au sein de l’approche Compassionate Inquiry®, l’empathie est envisagée comme une invitation à la conscience. Le praticien ne vise ni la résolution ni l’interprétation, mais cultive une posture d’ouverture et de curiosité, permettant à ce qui est caché d’accéder à la conscience en toute sécurité.
La présence empathique n’est donc pas une question de savoir ce que ressent un client ; il s’agit d’être avec lui à mesure que ces ressentis se déploient, ce qui constitue l’essence de l’empathie thérapeutique.
Pour approfondir cette compréhension de la présence, découvrez la formation professionnelle Compassionate Inquiry®.
Les promesses et le potentiel de l’IA en thérapie
L’intelligence artificielle s’invite aujourd’hui dans presque tous les secteurs de la santé, y compris celui de la santé mentale.(Pour davantage de contexte, voir les recommandations de l’American Psychological Association sur l’IA et la santé mentale.)
Des chatbots tels que Woebot ou Wysa proposent un soutien par écrit accessible en continu ; des outils de transcription par IA résument les séances thérapeutiques ; des modèles prédictifs ambitionnent de repérer les premiers signes de détresse à partir des patterns de langage ou des expressions faciales.
Ces technologies portent un véritable potentiel pour l’IA dans le champ du counseling. Elles peuvent :
- Faciliter l’accès au soutien pour celles et ceux qui pourraient autrement en manquer
- Diminuer la charge administrative pesant sur les thérapeutes
- Mettre à disposition des analyses issues de données à grande échelle pour soutenir les décisions cliniques
L’IA peut également fournir cohérence et structure, deux qualités qui peuvent enrichir certains processus thérapeutiques. Ainsi, des rappels automatisés ou des propositions d’écriture peuvent soutenir l’engagement des clients entre les séances.
Mais si l’IA peut simuler une conversation, analyser les émotions ou adopter un ton empreint de compassion, elle ne peut pas ressentir. Son « empathie » est générée par des probabilités, et non par une présence. Et dans l’espace thérapeutique, cette différence est essentielle.
Ce que l’IA peut — et ne peut pas — reproduire
L’intelligence artificielle excelle dans la détection de schémas, la synthèse d’informations et la restitution du langage. Pourtant, la présence empathique ne se construit pas à partir de données, elle s’expérimente dans la relation.
Dans le contexte de l’IA en thérapie, ces différences mettent en lumière le caractère irremplaçable de l’empathie humaine.
Lorsqu’un client partage une souffrance, le corps du thérapeute peut répondre de manière presque imperceptible : une légère tension dans la poitrine, un regard qui s’adoucit, ou une respiration qui s’accorde à celle de l’autre. Ces micro-moments de résonance constituent le fondement de la sécurité et de la confiance. Ils expriment : « Je suis ici avec vous. »
À l’opposé, l’IA repère des schémas émotionnels sans pouvoir y participer. Elle ne peut incarner une conscience vivante ni intégrer les nuances relationnelles qui se déploient dans le silence ou l’intuition.
Une série récente d’études sur l’intelligence émotionnelle de l’IA montre que les modèles de langage peuvent imiter l’empathie, sans pouvoir l’incarner. Même lorsqu’une réponse générée par l’IA paraît attentionnée, elle ne repose ni sur un vécu, ni sur une histoire, ni sur la vulnérabilité qui fondent la compassion humaine véritable.
L’empathie repose sur la conscience, et la présence sur l’incarnation— des dimensions qui n’existent pas dans les algorithmes.
Ainsi, si l’IA peut contribuer au travail thérapeutique par l’analyse et l’accessibilité, elle ne peut remplacer la capacité humaine à percevoir, ressentir et se mettre en syntonie.
Enjeux éthiques et relationnels de l’IA en thérapie
Le recours croissant à l’IA en santé mentale soulève des questions éthiques profondes.
Si les algorithmes sont entraînés à partir de vastes ensembles de données, qui décide de ce à quoi ressemble une « émotion saine » ?
Comment garantir la confidentialité et le consentement lorsque les informations d’un client sont traitées ou stockées par des systèmes tiers ?
Que se passe-t-il lorsque des clients développent des liens émotionnels avec des outils basés sur l’IA ?
Pour les praticiens travaillant selon une approche basée sur la prise en compte de la dimension traumatique, les enjeux éthiques liés à l’IA en thérapie sont particulièrement sensibles. La sécurité et la confiance dépendent non seulement des paroles échangées, mais aussi du contexte social et relationnel dans lequel elles prennent place. Explorez comment Compassionate Inquiry® favorise la sécurité au sein de la relation à travers sa communauté CI Connect Membership.
Aucune politique de confidentialité ni aucun serveur chiffré ne peut garantir la présence empathique. Celle-ci émerge dans l’instant vivant partagé par deux systèmes nerveux — une connexion harmonisée hors de portée de la technologie.
Cependant, rejeter l’IA en bloc pourrait ne pas non plus nous servir. La voie éthique à suivre pourrait être celle de l’équilibre : explorer comment l’IA peut soutenir le processus thérapeutique, tout en veillant à ce que la conscience humaine en demeure le cœur.
Le rôle du thérapeute à l’ère de l’intelligence artificielle
Plutôt que de questionner la capacité de l’IA à remplacer le thérapeute, posons une autre question :
en quoi l’IA pourrait-elle soutenir la présence du thérapeute ?
Lorsqu’elle est utilisée à bon escient, l’IA peut réduire la surcharge administrative en automatisant certaines tâches, et ainsi ouvrir davantage d’espace pour la connexion humaine.
Ainsi, la technologie devient un outil de soutien plutôt que de substitution. Elle peut élargir l’accès et l’efficacité, tandis que le thérapeute continue d’offrir ce qu’aucune machine ne peut apporter : une présence incarnée, une curiosité compatissante et une harmonisation relationnelle.
Dans les années à venir, les thérapeutes pourraient ne plus se percevoir en concurrence avec l’IA, mais en conversation avec elle. Le véritable enjeu sera de demeurer conscients, en utilisant la technologie comme une alliée tout en veillant à ce qu’elle n’altère pas les qualités qui font de la thérapie un espace de guérison.
Rester ancré dans la compassion et la curiosité
À mesure que l’intelligence artificielle prend une place croissante dans nos vies, elle nous invite à interroger ce que signifie réellement être humain.
La présence ne se télécharge pas. L’empathie ne s’automatise pas. Et pourtant, l’essor de l’IA pourrait nous aider à en redécouvrir l’essence — car le contraste éclaire souvent ce qui est fondamental.
Peut-être que l’invitation essentielle n’est pas de s’opposer à l’IA, mais de rester pleinement conscients en sa présence :
- Approcher ces outils avec discernement, et non avec peur
- Se rappeler que la technologie peut soutenir la conscience, sans pouvoir s’y substituer
- Poursuivre l’ancrage de notre travail dans la compassion — ce qui rend toute connexion possible
La présence empathique est la preuve vivante de notre humanité partagée et de notre capacité de connexion humaine. Et à mesure que la technologie progresse, notre capacité à rester ancrés dans notre humanité deviendra plus importante que jamais.
En guise de conclusion
La question « L’IA peut-elle soutenir une présence empathique en thérapie ? » n’appelle peut-être pas de réponse définitive. Elle ouvre toutefois un espace d’exploration précieux.
Si l’IA peut aider, structurer et révéler des schémas, l’essence de l’empathie reste profondément humaine — incarnée dans cette reconnaissance silencieuse qui se tisse entre deux êtres.
Au fond, la question n’est peut-être pas de savoir si l’IA peut ressentir, mais si nous pouvons continuer à ressentir pleinement — présents, conscients et compatissants — dans un monde de plus en plus façonné par les machines.
Poursuivez l’exploration de réflexions autour de la présence et de la guérison sur le blog Compassionate Inquiry®.
Cet article est proposé à des fins éducatives et ne constitue pas un avis médical ou thérapeutique.
Par Andy Good, équipe éditoriale de Compassionate Inquiry®



