Posez-vous des questions de santé à ChatGPT? Des conseils utiles aux erreurs risquées, voici ce qu’il faut savoir avant de se tourner vers l’intelligence artificielle.
Cette ressource fait partie d’une série sur l’importance de comprendre les répercussions de l’utilisation d’outils d’IA en remplacement de soins professionnels.
1. Usage croissant de l’IA | 2. Les conseils de santé de ChatGPT (actuelle) | 3. Conseils parentaux et l’IA
Les outils d’IA comme ChatGPT font de plus en plus partie de la vie quotidienne. Qu’il s’agisse d’aider les enseignant·e·s à rédiger des plans de cours ou les étudiant·e·s à faire des dissertations, de répondre à des questions sur des symptômes médicaux ou de rechercher du soutien pour des problèmes de santé mentale, ces outils semblent offrir un soutien rapide, utile et gratuit. Mais devrions-nous leur faire confiance quand il est question de notre santé?
Que vous vous tourniez vers les outils d’IA pour obtenir des bilans de santé mentale, faire une recherche sur des symptômes ou obtenir des conseils généraux sur le mieux-être, il est important de savoir ce que ces outils peuvent et ne peuvent pas faire. Dans cet article, nous examinerons les avantages et les inconvénients de l’utilisation de ChatGPT et d’autres agents conversationnels alimentés par l’IA pour obtenir des conseils de santé, afin que vous puissiez prendre des décisions éclairées.
Les avantages : les raisons pour lesquelles les gens se tournent vers les agents conversationnels pour obtenir de l’aide concernant leur santé
Solution accessible partout, en tout temps
L’IA ne dort pas. Contrairement aux médecins ou aux thérapeutes, les outils d’IA comme ChatGPT sont accessibles tous les jours 24 heures sur 24. Ils sont donc particulièrement utiles si :
Vous vivez dans une région rurale ou isolée où les services de santé sont limités.
Vous recherchez de l’aide en matière de santé mentale en dehors des heures de bureau.
Vous ne savez pas si vos symptômes sont suffisamment graves pour demander une aide médicale immédiate.
Solution moins coûteuse
La plupart des agents conversationnels alimentés par l’IA sont gratuits ou peu coûteux. Pour les personnes qui n’ont pas les moyens de s’offrir une thérapie privée ou qui ne participe pas à un régime de services de santé complémentaires ou à un programme d’aide aux employé·e·s (PAE), ces outils peuvent changer la donne.
Solution qui favorise la discussion
Croyez-le ou non, beaucoup d’utilisateur·trice·s se sentent plus à l’aise de donner des renseignements sur leur vie ou leurs émotions avec un agent conversationnel qu’avec une personne humaine. Pourquoi? Parce qu’une machine ne pose aucun jugement. Certaines personnes disent qu’elles sont plus honnêtes lorsqu’elles parlent à l’IA, ce qui peut les aider à réfléchir à ce qu’elles ressentent vraiment. Pour les personnes qui ne sont pas prêtes à discuter, l’IA ouvre la porte à la réflexion et au vocabulaire sur la santé mentale.
Solution utile pour l’apprentissage et la pratique
L’IA peut favoriser des habitudes saines en menant les utilisateur·trice·s à :
Établir des objectifs
Tenir d’un journal
Faire des exercices de pleine conscience ou de respiration
Les risques : ce qu’il faut savoir avant d’utiliser l’IA pour obtenir des conseils en matière de santé
Si l’idée d’utiliser l’IA dans le domaine de la santé semble excellente, elle présente néanmoins de sérieux inconvénients. Voici les aspects dont il faut se méfier :
Les plateformes d’IA peuvent donner des réponses réalistes – pourtant, elles se trompent souvent
Les outils d’IA comme ChatGPT sont entraînés pour paraître confiants et utiles. Mais cela ne signifie pas qu’ils ont toujours raison. De fait, ils « inventent » souvent des choses sans s’en rendre compte. Ces réponses fausses ou trompeuses peuvent être dangereuses, en particulier lorsqu’il s’agit de symptômes médicaux ou de problèmes de santé mentale. Souvent, les systèmes d’IA ne parviennent pas à saisir la diversité des expériences vécues et peuvent renforcer involontairement des stéréotypes néfastes, en particulier pour chez les personnes issues de la communauté 2SLGBTQIA+, les communautés de personnes noires, autochtones et racialisées et les personnes ayant des incapacités. Même lorsque les réponses semblent neutres, elles peuvent encore refléter des préjugés, perpétuer la stigmatisation ou négliger le contexte culturel, social et personnel.
Par exemple, les agents conversationnels :
Ont fourni des conseils néfastes sur les troubles de l’alimentation.
N’ont pas signalé les risques graves pour la santé mentale, comme les pensées suicidaires. Dans le cadre d’une étude, un agent conversationnel a calmement énuméré les grands ponts de New York à une personne qui venait de dire qu’elle avait perdu son emploi – un signe troublant qu’il ne comprenait pas le risque accru.
Lors d’expériences menées avec différents agents conversationnels, des chercheur·euse·s ont constaté que l’IA avait plus de préjugés à l’égard de certaines maladies mentales. Une telle situation peut nuire à certaines personnes et mener à l’abandon des soins.
Ont fourni des sources inventées de toutes pièces ou des réponses non pertinentes lorsqu’on lui a demandé des références. Il a aussi mal interprété ou mal cité des renseignements tirés de ces sources.
Se sont fait passer pour une personne humaine ou un·e vrai·e thérapeute.
Les agents conversationnels sont couramment utilisés pour vérifier des symptômes, poser des questions sur des médicaments ou obtenir des conseils sur des maladies chroniques. Voici le problème :
Les agents conversationnels peuvent omettre des renseignements essentiels, mal interpréter les lignes directrices de soins cliniques et ignorer des informations importantes lorsqu’ils sont interrogés sur des sujets médicaux courants.
L’IA peut manquer des signes urgents de maladie grave qui nécessitent une attention immédiate.
L’IA peut donner de l’information obsolète ou incorrecte.
Les agents conversationnels ne remplacent pas votre médecin ou votre thérapeute. Ils ne connaissent pas vos antécédents médicaux, les médicaments que vous prenez, vos allergies ou vos besoins. L’utilisation de l’IA peut vous donner l’impression que vous avez « fait quelque chose » pour résoudre votre problème, et crée ainsi un faux sentiment d’autosuffisance. Cela peut conduire une personne à attendre avant de se faire soigner ou pire, à prendre des décisions risquées.
L’IA ne vous écoute pas vraiment
Un agent conversationnel peut sembler empathique, mais il ne comprend pas vraiment ce que vous ressentez. Il ne peut pas lire le ton, les expressions faciales ou le langage corporel – des indices subtils que de vraies personnes humaines utilisent pour se comprendre les unes les autres. Il ne se souvient pas non plus des conversations passées, sauf s’il a été conçu à cet effet, de sorte qu’il n’y a pas de véritable continuité dans les soins. Les outils d’IA manquent souvent de contexte, y compris les antécédents de traumatismes personnels, et ont tendance à adopter par défaut les normes culturelles de la culture dominante. Ils peuvent négliger des aspects importants de l’identité individuelle, notamment la race, le genre ou l’orientation sexuelle, et par conséquent, mener à la formulation de conseils qui semblent impersonnels, incohérents, voire nuisibles.
L’IA peut vous empêcher d’avancer
L’IA reflète souvent votre ton ou votre humeur. C’est un contexte qui peut être réconfortant, mais qui favorise rarement les remises en question. Un·e thérapeute dûment formé·e sait quand c’est le moment de vous pousser doucement à sortir de vos schémas de pensées nuisibles. Et ChatGPT, lui? Il est plus probable qu’il soit d’accord avec vous ou qu’il vous rassure de manière générale, même si ce n’est pas ce dont vous avez besoin. L’IA peut imiter votre tonus mental, ce qui peut vous aider à vous sentir compris·e et écouté·e, mais elle peut aussi accentuer involontairement l’anxiété, la rumination ou les pensées catastrophiques si vous êtes déjà en détresse.
L’IA peut sembler « trop réelle »
Certaines personnes commencent à développer un attachement émotionnel aux agents conversationnels de l’IA. Elles peuvent :
Privilégier les discussions avec l’IA au détriment des relations dans le monde réel.
Retarder les activités sociales pour continuer à discuter.
Se sentir contrarié·e lorsque l’agent conversationnel « se déconnecte ».
Ce faux sentiment de rapprochement peut compliquer l’établissement de relations réelles ou l’acquisition de stratégies d’adaptation individuelles. Bien que ces relations puissent apporter un réconfort temporaire, elles ne remplacent pas le lien émotionnel, la fiabilité ou l’acquisition de compétences que peuvent procurer les relations humaines.
La confidentialité n’est pas garantie
Les agents conversationnels alimentés par l’IA ne sont pas soumis aux lois sur la protection de la vie privée du secteur de la santé, notamment la Health Insurance Portability and Accountability Act (ou HIPAA) des États-Unis ou la Loi sur la protection des renseignements personnels sur la santé (ou LPRPS) du Canada. Cela signifie que :
Vos renseignements personnels peuvent être stockés ou partagés.
Vos discussions en ligne peuvent être utilisées pour améliorer le modèle d’IA, sans que vous le sachiez.
La façon dont vos données sensibles sont protégées n’est pas claire – ou si elles sont protégées tout court.
Vous courrez plus de risques si vous formulez des préoccupations privées sur la santé, des problèmes de santé mentale, ou même votre nom et votre localisation.
Alors, devriez-vous utiliser ChatGPT pour obtenir des conseils en matière de santé?
ChatGPT et d’autres outils d’IA peuvent être utilisés pour :
Obtenir de l’information générale sur des maladies ou des symptômes.
Explorer des idées pour tenir un journal, pratiquer la pleine conscience ou prendre soin de soi.
Appuyer ce qu’un·e professionnel·le de la santé vous a déjà dit.
Avoir de l’aide pour préparer des questions avant une visite chez le·la médecin.
Évitez d’utiliser des outils d’IA pour :
Poser un diagnostic pour vous ou une autre personne.
Prendre des décisions concernant des médicaments, des suppléments ou des traitements médicaux.
Prendre en charge des problèmes de santé mentale graves ou urgents.
Remplacer un·e médecin ou un·e thérapeute de confiance.
Les agents conversationnels alimentés par l’IA comme ChatGPT sont impressionnants et, à bien des égards, utiles. Mais ils ne sont pas des professionnel·le·s de soins de santé. Ils ne remplacent pas les connaissances, la formation ou l’humanité des vrai·e·s médecins, du personnel infirmier, des conseiller·ère·s et des thérapeutes. Comme ces outils continuent d’évoluer, il est important de vous tenir au courant. Utilisez-les à bon escient, mais ne partez pas du principe qu’ils ont toujours raison – ou qu’ils sont toujours sûrs. Lorsqu’il s’agit de votre santé, la curiosité est de mise, mais soyez prudent·e.
Homewood Santé n’utilise pas OpenAI ou d’autres grands modèles de langage dans aucune de ses offres de soins. Elle utilise des outils alimentés par l’IA et élaborés à l’interne pour aider les client·e·s du programme d’aide aux employé·e·s et à leur famille (PAEF) avec plusieurs de ses produits. Par exemple, l’IA est utilisée pour guider les recommandations de soins dans la plateforme Parcours.
Si vous avez des questions sur la santé mentale ou si vous cherchez du soutien dans ce domaine, communiquez avec l’équipe du PAEF de Homewood Santé. Nous sommes là pour répondre à vos questions et vous mettre en contact avec un conseiller·ère qui pourra vous aider. C’est toujours confidentiel.
Explorez ces ressources supplémentaires pour mieux comprendre les risques liés à l’utilisation d’outils d’IA :
Références
Abrams Z (12 mars 2025) Using generic AI chatbots for mental health support: A dangerous trend. American Psychological Association. Consulté le 19 juin 2025. (seulement en anglais).
Chan CKY (2025) AI as the therapist: student insights on the challenges of using generative AI for school mental health frameworks. Behavioural Sciences. 15(3):287 Consulté le 18 juin 2025. (seulement en anglais).
Chow A and Haupt A (12 juin 2025) A psychiatrist posed as a teen with therapy chatbots. The conversations were alarming. Time. Consulté le 19 juin 2025. (seulement en anglais).
Kimmel D (17 mai 2023) ChatGPT therapy is good, but it misses what makes us human. Columbia University Department of Psychiatry. Consulté le 19 juin 2025 (seulement en anglais).
Levesque B (2023) UF College of Medicine research shows AI chatbot flawed when giving urology advice. University of Florida College of Medicine. Consulté le 25 juin 2025 (seulement en anglais).
Rédacteur·trice·s attitré·e·s (25 June 2023) NEDA Suspends AI chatbot for giving harmful eating disorder advice. Pyschiatrist.com. Consulté le 19 juin 2025 (seulement en anglais).
Wells S (11 June 2025) New study warns of risks in AI mental health tools. Stanford Report. Consulté le 19 juin 2025 (seulement en anglais).
Zhang Z, Wang J (2024) Can AI replace psychotherapists? Exploring the future of mental care. Frontiers in Psychiatry. 15:1444382 Consulté le 18 juin 2025 (seulement en anglais).