L’IA thérapeute : une solution à la solitude moderne ?

Ce billet de blog est inspiré par des conversations que j’ai récemment eues avec mes amis. À ma grande surprise, de plus en plus de gens autour de moi utilisent l’IA thérapeute comme substitut aux thérapeutes humains. Ils partagent leurs problèmes, leurs peurs, leurs inquiétudes, et préfèrent dialoguer avec une machine plutôt qu’un être humain. “Ça marche tellement mieux pour moi ! Je ne me sens pas jugé, je ne me sens pas mal regardé, je me sens encouragé… et en plus, c’est gratuit !” disent beaucoup d’entre eux. Ces échanges m’ont interpellée. J’ai donc voulu étudier cette tendance : s’agit-il d’un phénomène installé ? Et surtout, l’IA thérapeute peut-elle réellement nous aider à mieux nous connaître ?
Quand la recherche s’intéresse à l’impact émotionnel des IA
Bien qu’un nombre limité d’études aient été menées jusqu’à présent sur le sujet, et que les risques psychologiques aient longtemps été relégués au rang de simple sous-catégorie dans les classifications générales des risques liés à l’IA — entraînant ainsi une sous-représentation de leur impact réel sur les utilisateurs [1] — certaines recherches récentes offrent des éclairages précieux sur les effets possibles de l’IA thérapeute sur notre bien-être émotionnel.
Une étude fondatrice : deux volets complémentaires
Une étude menée conjointement par OpenAI et le MIT Media Lab ouvre des pistes de compréhension essentielles. Elle comporte deux volets complémentaires.
Le premier repose sur l’analyse automatisée de plus de 4 millions de conversations [2] entre utilisateurs et ChatGPT, réalisée dans le respect de la vie privée. Il est accompagné d’un sondage auprès de plus de 4 000 utilisateurs [2], visant à comprendre leurs perceptions et usages émotionnels du chatbot. Cette analyse met en évidence des motifs émotionnels récurrents : solitude, recherche de soutien, auto-révélation, voire expressions d’attachement [2]. Elle note également une forte présence de « signaux affectifs » (affective cues), surtout chez les utilisateurs intensifs, appelés power users, qui activent ces marqueurs émotionnels à des niveaux plus élevés que les autres.
Un petit groupe d’utilisateurs, désigné comme les power users, a été identifié : ce sont ceux dont l’usage du mode vocal avancé les place dans le top 1 000 des utilisateurs les plus actifs [2]. Leurs échanges activent plus fréquemment les indicateurs de langage affectif, ce qui suggère que certains profils développent une relation particulièrement marquée avec l’IA thérapeute.
Parallèlement, un essai contrôlé randomisé (RCT) a été mené sur 981 personnes, réparties en neuf groupes selon deux variables : le type de conversation (ouverte, personnelle, non personnelle) et la modalité d’interaction (texte, voix neutre, voix engageante) [3]. Pendant quatre semaines, ces participants ont interagi avec l’IA thérapeute au moins cinq minutes par jour. Les effets ont été mesurés sur quatre critères psychosociaux : solitude, socialisation, dépendance émotionnelle et usage problématique.
Des effets contrastés selon les modalités d’usage
Les résultats sont nuancés. À court terme, la solitude diminue légèrement. Cependant, cette amélioration s’accompagne d’une baisse significative des interactions sociales réelles. Plus les utilisateurs passent de temps avec l’IA, plus ils se sentent seuls et dépendants. Autrement dit, un usage modéré peut apaiser ; un usage intensif fragilise [3].
Le mode d’interaction joue aussi un rôle. Les voix engageantes, au début, améliorent les indicateurs de bien-être : moins de solitude, moins de dépendance. Mais ces bénéfices disparaissent avec un usage prolongé. La voix neutre, en revanche, est associée à une baisse marquée des relations sociales [3].
Enfin, le type de conversation influence les résultats. Les discussions personnelles augmentent légèrement la solitude, mais réduisent la dépendance. À l’inverse, les échanges non personnels, pourtant perçus comme plus « professionnels », sont corrélés à une plus forte dépendance chez les utilisateurs intensifs [3].
Cette complexité montre que l’IA thérapeute ne produit pas un effet unique, mais dépend de nombreux facteurs : durée d’usage, type de relation construite, attentes de l’utilisateur. De plus, les chercheurs soulignent que ceux qui perçoivent l’IA comme consciente ou humaine rapportent une meilleure santé sociale [3]. Cela suggère que notre propre perception de l’IA façonne son impact sur nous.
Les bénéfices et les risques de l’IA thérapeute
L’IA thérapeute offre une écoute constante, sans jugement. Elle peut apporter du réconfort à ceux qui souffrent de solitude, de stress ou d’anxiété. De plus, certains utilisateurs déclarent se sentir plus libres d’exprimer leurs émotions à une machine qu’à un humain [2]. Cette absence de jugement est un facteur clé de confiance.
Cependant, cette confiance peut se transformer en dépendance. Les personnes avec une forte tendance à l’attachement sont plus vulnérables. À long terme, cela peut entraîner un éloignement des relations humaines. La voix de l’IA, perçue comme chaleureuse, peut créer un sentiment d’intimité artificielle. Mais plus l’usage est intensif, plus l’isolement social augmente [3].
Selon les données d’Anthropic, les « power users » de Claude, leur assistant vocal, utilisent massivement ces échanges comme substitut à des interactions sociales réelles. Cela soulève des questions cruciales sur notre rapport à la vulnérabilité et au besoin de lien [4].
Ce que révèle l’IA thérapeute sur notre humanité
Les études suggèrent que l’usage de l’IA thérapeute peut modifier certains comportements émotionnels et sociaux. Cela invite à s’interroger sur une possible transformation de notre manière de vivre les émotions et de nous relier aux autres : le recours croissant à des interlocuteurs numériques, toujours disponibles et sans jugement, pourrait peu à peu redéfinir nos attentes envers les relations humaines.
Ces interactions pourraient procurer un soulagement immédiat. Certains utilisateurs disent se sentir plus calmes, écoutés ou compris après un échange avec l’IA [2]. Dans ces cas, l’assistant conversationnel jouerait le rôle d’un « snack émotionnel » : un réconfort ponctuel, accessible à tout moment, qui apaiserait sans nécessairement résoudre en profondeur.
Mais les risques sont majeurs. L’usage intensif de l’IA thérapeute est corrélé à une augmentation de la solitude, de la dépendance affective et à une baisse des contacts humains. L’effet positif des voix empathiques s’annule avec le temps. Pire, les utilisateurs très actifs ressentent plus d’isolement que ceux qui interagissent modérément [3].
Par ailleurs, certains croient que l’IA les comprend [3]. Ils la perçoivent comme un ami. Cette perception est liée à une réduction des relations humaines, une augmentation de la dépendance et une vision altérée de l’interaction sociale. Le danger est là : en s’habituant à une empathie constante, sans contradiction, nous risquons de développer des attentes irréalistes vis-à-vis des relations humaines.
Les personnes ayant déjà utilisé des chatbots compagnons sont plus susceptibles de devenir dépendantes [5]. Cela montre que l’IA thérapeute peut activer des mécanismes proches de l’addiction relationnelle. Surtout chez les individus socialement isolés.
Enfin, l’IA pourrait redéfinir nos attentes. Une empathie infinie, une écoute permanente, une absence de désaccord : ces caractéristiques peuvent devenir des standards implicites. Cela pourrait rendre les relations humaines plus difficiles à accepter, car moins parfaites. Ce glissement est lourd de conséquences.
Conclusion : apprendre à parler IA
Avant de conclure, il est essentiel de rappeler que l’IA thérapeute ne remplacera jamais un être humain. Elle peut compléter un soutien psychologique, et dans certains cas bien encadrés, elle peut même offrir un soulagement réel. Sous certaines conditions — usage limité, objectifs clairs, conscience des risques — l’IA thérapeute semble « fonctionner » pour des personnes en quête d’écoute ou de recul.
Mais avant d’y faire appel, il est crucial d’apprendre à parler IA. Comprendre ses limites, ses effets possibles sur notre psychisme, et ses mécanismes internes permet de mieux interagir avec elle, sans naïveté ni dépendance.
Références :
- [1] From Lived Experience to Insight: Unpacking the Psychological Risks of Using AI Conversational Agents.
- [2] Investigating Affective Use and Emotional Well-being on ChatGPT.
- [3] HOW AI AND HUMAN BEHAVIORS SHAPE PSYCHOSOCIAL EFFECTS OF CHATBOT USE: A LONGITUDINAL RANDOMIZED CONTROLLED STUDY.
- [4] How People Use Claude for Support, Advice, and Companionship.
- [5] Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika.
Pour aller plus loin :
- Consultez nos formations.
- Participez à nos webinar.
- Inscrivez-vous à notre newsletter.
Nous sommes un cabinet de conseil et formations en Intelligence Artificielle basé à Paris.
Discuter avec un expert en IA
Discuter avec un expert en IA est possible et complètement gratuit !


Réservez gratuitement et sans obligation d’achat un créneau de 30 minutes pour discuter avec un expert en IA !