L’intelligence artificielle est présente dans notre quotidien depuis longtemps, parfois de manière discrète, et parfois de manière plus spectaculaire. Avec l’essor des IA génératives depuis fin 2022, il est désormais difficile de passer à côté du phénomène. Et dans le domaine de la santé mentale et du bien-être, ces outils entraînent aussi des transformations. Des chatbots aux plateformes de thérapie assistée, en passant par les journaux intimes intelligents, l’IA promet d’élargir l’accès au soutien psychologique et d’en améliorer la personnalisation. Mais ces outils suscitent aussi des interrogations : que valent-ils vraiment ? Peuvent-ils être utiles au grand public ou représentent-ils un danger ? Quels sont les risques éthiques sous-jacents ?
Dans cet article, je vous propose une exploration approfondie des apports actuels de l’IA dans l’accompagnement psychologique, en s’appuyant sur des recherches récentes et des outils concrets. Nous verrons également comment utiliser certains dispositifs. Enfin, je vous donnerai quelques cas et prompts à tester, sans oublier d’évoquer les limites à connaître pour en faire un usage éclairé.
L’IA dans l’accompagnement psychologique
L’intégration de l’IA dans le champ de la psychologie ne se limite plus à des prototypes disponibles dans les laboratoires de recherche. Aujourd’hui, les outils exploitant des modèles de langage, des algorithmes d’analyse sémantique ou encore la reconnaissance vocale sont déjà utilisés par des psychologues. Ils permettent d’assister les professionnels de la santé mentale, mais aussi de proposer des formes d’accompagnement autonomes.
Un des usages professionnels les plus prometteurs concerne l’aide à l’anamnèse. Une étude de 2024 s’est ainsi intéressée à l’utilisation de modèles d’IA pour analyser le flux de pensées exprimé librement par un individu1. Ces données, structurées sous forme de narratifs cohérents par l’intelligence artificielle, permettent aux thérapeutes de mieux comprendre les thèmes récurrents, les valeurs implicites et les nœuds émotionnels des patients. Et donc de mieux les accompagner.
D’autres dispositifs utilisent l’IA pour suggérer des exercices personnalisés (ex. : pleine conscience, restructuration cognitive, etc.) ou pour analyser des émotions à partir des intonations ou du texte.
Promesses et résultats empiriques
De nombreuses recherches apportent des résultats empiriques solides sur l’intégration de l’IA dans les dispositifs de santé mentale. Même avant l’émergence de ChatGPT et de Gemini, certains agents conversationnels spécialisés dans l’accompagnement psychologique ont été testés et ont montré leur efficacité. Parmi eux, Woebot, fondé sur les principes de la thérapie cognitive et comportementale (TCC), est ainsi plus efficace qu’un guide thérapeutique à suivre en autonomie pour des jeunes adultes présentant des symptômes de dépression légère à modérée2. Après seulement deux semaines d’interactions quotidiennes, les utilisateurs ont en effet montré une réduction significative de leurs symptômes dépressifs .
Ces résultats ont depuis été confirmés pour plusieurs agents conversationnels boostés à l’IA, qu’il s’agisse de Woebot, Wysa ou Youper3. D’autres travaux ont évalué l’impact de plusieurs agents conversationnels sur la réduction du stress et l’amélioration de la régulation émotionnelle. Les chercheurs observent globalement que les outils intégrant des dialogues structurés et des feedbacks en temps réel favorisaient l’engagement, en particulier chez les personnes ayant une légère détresse psychologique4.
Des résultats encourageants
Si les performances sont variables en fonction des outils utilisés, certains d’entre eux présentent un potentiel comparable à l’écoute active de première ligne, pour le repérage de troubles ou le soutien motivationnel5. L’efficacité dépend souvent du niveau de personnalisation, de la durée d’utilisation et de la capacité du système à reformuler ou recadrer de manière empathique. Bien évidemment, les assistants grand public peinent encore à reconnaître et à répondre de manière appropriée aux signaux de détresse grave (idées suicidaires, violences). Cela souligne l’importance de distinguer les IA conçues à des fins thérapeutiques de celles à visée plus généraliste6.
Enfin, une recherche exploratoire a étudié les interactions spontanées entre usagers et IA conversationnelle. L’étude révèle que certains utilisateurs développent une forme de co-construction narrative de leur identité, particulièrement chez les personnes isolées. Cela ouvre des pistes intéressantes, mais appelle à un encadrement éthique rigoureux pour éviter les phénomènes de projection ou de dépendance affective à la machine7.
Des limites à prendre en compte
En somme, la recherche actuelle montre des effets prometteurs pour certains indicateurs psychologiques, à condition de bien cibler les outils et les profils d’usagers, et de ne pas substituer ces dispositifs à une prise en charge humaine lorsque celle-ci est nécessaire. Des études en cours tentent ainsi d’identifier les profils pour lesquels l’IA pourrait être pertinente. C’est d’ailleurs un des enjeux des futures mises à jour des modèles d’IA génératives. OpenAI l’a bien compris et cherche à mieux détecter la détresse émotionnelle en s’aidant d’experts de la santé mentale. L’entreprise cherche également à favoriser un usage raisonné de ChatGPT en détectant les utilisations excessives de l’outil.
Les modèles spécialisés présentent donc un intérêt certain dans une approche thérapeutique. On pourrait ainsi les utiliser comme des assistants venant au soutien des thérapeutes pour les aider à mieux comprendre leurs patients via des signaux faibles. Ils pourraient également jouer le rôle de relai entre deux séances. Dans un monde où l’accès à la psychothérapie est encore limité tant pour des raisons pécuniaires que culturelles, l’émergence de ces agents conversationnels peut représenter une avancée tout à fait positive.
Utiliser l’IA pour son bien-être ? Outils accessibles et usages guidés
L’accès démocratisé aux IA ouvre la voie à de nouvelles applications dans le domaine du bien-être psychologique. À condition, bien sûr, d’en comprendre les limites et d’encadrer les usages. Ainsi, il est possible de s’appuyer sur les agents conversationnels pour structurer une réflexion personnelle, identifier des émotions récurrentes ou encore pratiquer la gratitude ou tout autre exercice de façon plus engageante (pour ne citer que quelques exemples). Je vous propose ci-dessous une exploration de quelques options concrètes, disponibles gratuitement ou en open source, et réellement exploitables dès aujourd’hui.
ChatGPT comme compagnon réflexif
Parmi les IA les plus accessibles, les modèles de langage comme ChatGPT, Claude, Mistral ou Gemini offrent un support polyvalent, capable de s’adapter à des objectifs introspectifs, à condition d’être guidés par des prompts bien structurés. Par exemple, il est possible de demander à ces outils de vous aider à :
- reformuler une pensée intrusive de manière plus équilibrée ;
- explorer les causes profondes d’un blocage personnel (procrastination, auto-sabotage) ;
- reconstruire un événement émotionnellement chargé en identifiant vos besoins ou les valeurs activées.
L’un des avantages majeurs de ces agents conversationnels est leur souplesse. Bien qu’ils ne soient pas conçus spécifiquement à des fins thérapeutiques, leur capacité à reformuler, synthétiser, questionner et structurer la pensée peut en faire de puissants outils de clarification mentale. Plusieurs chercheurs explorent d’ailleurs leur usage dans le cadre d’exercices issus de l’ACT (thérapie d’acceptation et d’engagement), de la psychologie narrative ou de la psychoéducation.
Journaux introspectifs assistés par IA
Certaines plateformes comme Reflectly ou Stoic proposent des journaux numériques combinant IA et psychologie. Ils guident l’utilisateur dans l’écriture quotidienne à travers des questions inspirées de la psychologie positive : « Qu’est-ce qui vous a apaisé aujourd’hui ? », « Quelle qualité avez-vous mobilisée sans en avoir conscience ? », etc. Certaines versions premium proposent des analyses de tendances émotionnelles sur plusieurs semaines.
Alternativement, il est possible de créer un journal interactif personnalisé via Notion ou Obsidian, associé à une extension comme ChatGPT ou un plugin basé sur un autre LLM (Large Language Model – Grand modèle de langage). Par exemple, en couplant Notion à un script GPT, on peut automatiser l’analyse de ses humeurs, générer des feedbacks synthétiques ou même proposer des défis hebdomadaires personnalisés.
Solutions locales accessibles pour un usage autonome
Pour les personnes souhaitant une alternative aux outils en ligne, sachez qu’il est tout à fait possible d’installer des modèles de langage directement sur son ordinateur, sans connaissances techniques poussées. L’application LM Studio permet par exemple d’utiliser localement des modèles comme LLaMA, Mistral ou Phi-2, via une interface graphique simple, disponible sous Windows et Mac. Elle évite toute fuite de données vers l’extérieur et garantit une plus grande confidentialité. Grâce aux versions allégées de plus en plus performantes des modèles d’IA, plus besoin d’avoir un ordinateur dernier cri pour que cela fonctionne.
Pour ceux qui veulent encore aller plus loin, il est également possible d’importer des modèles depuis HuggingFace, une base de données open-source. On peut ainsi tout autant trouver des IA affinées spécialement pour certains usages (questionnement introspectif, reformulation, exploration des valeurs) ou les configurer soi-même pour les personnaliser davantage.
LM Studio est particulièrement adapté aux profils soucieux de leur vie privée ou souhaitant pratiquer une introspection régulière sans connexion internet. Il devient ainsi possible de créer un “coach intérieur” sur mesure, avec des capacités comparables à celles de certains agents IA en ligne, mais dans un cadre plus sécurisé et éthique.
Précautions et bonnes pratiques d’usage
Il est fondamental de rappeler que, même bien conçus, ces outils n’ont pas vocation à remplacer une relation thérapeutique humaine. Leur usage peut apporter une clarté ponctuelle, un sentiment de soutien, ou une aide à la prise de recul, mais ne saurait se substituer à un processus d’accompagnement, notamment dans les cas de détresse émotionnelle sévère ou persistante.
Par ailleurs, les effets peuvent varier fortement selon le style cognitif de l’utilisateur, son aisance avec les outils numériques, son degré de détresse et la qualité des prompts utilisés. Un même outil pourra aider une personne à gagner en autonomie et en apaisement, et laisser un autre utilisateur indifférent, voire frustré. Enfin, la confidentialité des données doit rester une priorité : utiliser des IA locales ou chiffrées reste préférable dès que des contenus sensibles sont abordés.
Exemples de prompts introspectifs
De nombreux usages peuvent ainsi être imaginés pour tirer parti des IA génératives :
- En période de transition ou de questionnement professionnel, l’IA peut jouer un rôle de miroir réflexif. Par exemple : en posant 5 questions sur les valeurs ressenties dans une situation professionnelle, en synthétisant les leviers de motivation évoqués dans un conversation libre, ou en confrontant différentes options de décision via une grille d’analyse objective.
- Pour travailler sur une émotion spécifique, l’utilisateur peut décrire un épisode déclencheur à l’IA, qui peut ensuite le guider dans un parcours en 6 étapes (description – pensées – besoins – reformulation – valeurs – action).
- Dans une perspective de prévention, on peut concevoir des routines hebdomadaires assistées par IA, avec un suivi des progrès (ex : gratitude, visualisation de la semaine à venir, analyse d’un conflit mineur).
Je vous propose ci-dessous un fichier comportant des scripts prêts à l’emploi pour réfléchir à une transition professionnelle, clarifier une émotion difficile, mettre en place des routines de bien-être, prendre une décision importante et travailler la confiance en soi. Chaque prompt est contextualisé, avec une séquence guidée et une justification psychologique. Ces scripts sont conçus pour fonctionner avec n’importe quel modèle de langage avancé.
Télécharger le fichier contenant les prompts
Mise en garde essentielle
Même si les avancées de l’IA permettent des interactions plus riches, ces outils ne sont ni neutres, ni inoffensifs. Ils reposent sur des modèles entraînés sur des données sélectionnées, peuvent donner une fausse impression d’écoute, ou produire des reformulations erronées. Leur usage doit donc s’inscrire dans une démarche lucide, encadrée, avec un esprit critique constant. Utilisés en conscience, ils peuvent enrichir une démarche personnelle. Mal utilisés, ils risquent au contraire d’accentuer des malentendus ou de créer des dépendances affectives. Gardez toujours ces précautions en tête quand vous travaillez avec ces outils.
IA, biais et défis éthiques : des promesses sous conditions
Si l’IA offre des potentialités importantes, elle soulève aussi des questions fondamentales sur les biais, la responsabilité et l’autonomie des usagers. Voyons ensemble les principaux enjeux.
Biais algorithmiques et représentations culturelles
Les modèles d’IA sont entraînés sur de grandes bases de données textuelles et/ou multimodales, souvent issues de sources occidentales, anglophones et informelles. Cela peut entraîner des distorsions culturelles, des normes implicites biaisées, voire des réponses stéréotypées.
Par exemple, des études ont montré que certains modèles attribuent plus fréquemment des traits négatifs à certains groupes ethniques, genres ou orientations sexuelles. Dans le contexte psychologique, cela peut induire des conseils inappropriés ou dépourvus de sensibilité. Bien entendu, le travail des ingénieurs spécialisés dans la curation des données permet petit à petit de corriger ces biais, mais ils ne sont pas totalement évitables.
Confidentialité et sécurité des données
L’utilisation d’une application de soutien psychologique entraîne généralement la collecte d’informations sensibles. Or, les politiques de traitement de ces données varient énormément selon les outils. Certaines applications gratuites monétisent celles-ci via des partenaires tiers ou pour entraîner d’autres IA.
Il est donc crucial de lire les conditions d’utilisation et de préférer des outils avec chiffrage de bout en bout ou audités par des institutions publiques.
Dépendance, déshumanisation et effet placebo
Un autre risque réside dans la tentation de remplacer un suivi humain par des outils automatisés. Même si l’IA peut aider à verbaliser ou structurer la pensée, elle ne remplace pas l’alliance thérapeutique, ni l’empathie incarnée.
Certaines personnes vulnérables peuvent aussi surestimer les compétences de l’outil ou projeter sur lui des attentes irréalistes. À l’inverse, l’effet placebo ou la simple impression d’être écouté peuvent créer un soulagement temporaire, sans résolution durable. Il faut donc veiller à ce que l’IA ne devienne pas un échappatoire qui augmenterait encore l’isolement social et le sentiment de solitude.
Vers une IA éthique et responsable en psychologie
Pour éviter ces dérives, plusieurs actions sont à encourager. La transparence des données d’entraînement des modèles est une première piste, tout comme le fait que les modèles soient accessibles en open source. La supervision humaine et les audits des grandes organisations à l’origine des modèles d’IA les plus populaires doit également être mise en place. Fort heureusement, les géants du numérique prennent de plus en plus en compte les dérives potentielles de ces outils et instaurent des garde-fous pour éviter les usages dangereux ou peu éthiques (que cela soit fait à dessein ou non).
Bien évidemment, il faut garder en tête que les IA génératives restent des outils. Et comme n’importe quels outils, c’est leur utilisation qui peut les transformer en danger ou au contraire représenter une force au service du bien-être des individus.
Conclusion
L’essor de l’intelligence artificielle ouvre des perspectives fascinantes pour le domaine de la psychologie et du bien-être. Des outils accessibles permettent déjà de compléter une démarche personnelle, de structurer un journal introspectif ou de s’interroger sur ses émotions. Mais leur usage exige vigilance, recul critique et cadre clair.
Pour le grand public, ces IA peuvent être des “sparring partners” introspectifs, à condition de ne pas les confondre avec un accompagnement humain. Pour les professionnels, elles offrent de nouveaux leviers d’analyse ou de personnalisation puissants, sans pour autant remplacer la relation thérapeutique.
Enfin, ces technologies soulèvent des questions éthiques majeures : biais culturels, déshumanisation, confidentialité. Les prochaines années devront donc combiner rigueur scientifique, innovation responsable et dialogue entre chercheurs, praticiens et usagers.
Et vous, avez-vous déjà testé un outil d’IA pour améliorer votre bien-être ? Si oui, quels ont été les effets ? Vos retours et le partage de pratiques est une excellente manière d’améliorer collectivement nos usages !
Références
Voir les références
- Blyler, A. P., & Seligman, M. E. P. (2024). Personal narrative and stream of consciousness: An AI approach. The Journal of Positive Psychology, 19(4), 592-598.
- Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19. https://doi.org/10.2196/mental.7785
- Farzan, M., Ebrahimi, H., Pourali, M., & Sabeti, F. (2024). Artificial Intelligence-Powered Cognitive Behavioral Therapy Chatbots, a Systematic Review. Iranian Journal of Psychiatry.
- Inkster, B., Sarda, S., & Subramanian, V. (2018). An Empathy-Driven, Conversational Artificial Intelligence Agent (Wysa) for Digital Mental Well-Being : Real-World Data Evaluation Mixed-Methods Study. JMIR mHealth and uHealth, 6(11), e12106.
- Vaidyam, A. N., et al. (2019). Chatbots and conversational agents in mental health: A review of the psychiatric landscape. Canadian Journal of Psychiatry, 64(7), 456–464.
- Miner, A. S., et al. (2016). Smartphone-based conversational agents and responses to questions about mental health, interpersonal violence, and physical health. JAMA Internal Medicine, 176(5), 619–625.
- Morris, R. R., Kouddous, K., Kshirsagar, R., & Schueller, S. M. (2018). Towards an Artificially Empathic Conversational Agent for Mental Health Applications : System Design and User Perceptions. Journal of Medical Internet Research, 20(6), e10148.
Merci d’être passé(e) sur le site et d’avoir pris le temps de lire cet article ! J’espère que vous l’avez apprécié.
N’hésitez pas à me laisser un commentaire si vous avez des questions. Je fais de mon mieux pour lire et répondre à tous les commentaires postés sur le blog, alors ne soyez pas timide !
Si vous appréciez le contenu proposé sur se-realiser.com, vous pouvez vous inscrire à notre newsletter (formulaire d’inscription dans la colonne de droite) pour rester au courant de toutes les actualités du site (pas de spam, pas de revente d’informations, rassurez-vous !).