IA et santé mentale

10/07/2025

IA et santé mentale

L’intelligence artificielle (IA) transforme de nombreux domaines, y compris celui de la santé mentale. Les outils conversationnels virtuels, comme ChatGPT, sont-ils en passe de devenir les nouveaux « psys » ? Les témoignages de personnes qui cherchent du soutien psychologique auprès de ces robots conversationnels se multiplient dans les médias et sur les réseaux sociaux.

Disponibles à toute heure du jour et de la nuit, rapides, infatigables, gratuits, peu contrariants, sans jugement… les atouts de ces « confidents » virtuels sont-ils sans danger pour ceux qui les utilisent ? Dans le contexte que nous connaissons, où la santé mentale est devenue un enjeu de premier plan, où les besoins de soins sont loin d’être couverts, que penser de ces béquilles virtuelles ?

Nous avons posé toutes ces questions au docteur Grégoire Hinzelin, médecin neurologue chargé du numérique pour l’Institut cancérologique de l’Ouest.

  • Nous savons que le fait d’écrire ses émotions, ses difficultés, peut être bénéfique, même sur un clavier. L’IA, utilisée de manière ponctuelle, peut donc représenter un intérêt pour ceux qui ont besoin d’un peu d’attention ?

Dr. Hinzelin : Oui si cela permet de formuler ses pensées, mais non si la personne met en place une projection affective sur la machine – et c’est évidemment le risque si le contact est prolongé. En réalité, le bénéfice n’existe que dans un contact ponctuel.

  • Il arrive que les IA conseillent aux utilisateurs de prendre rendez-vous avec un professionnel de santé. L’IA devient alors une porte d’entrée vers le soin : cela offre-t-il une forme de sécurité ? Est-ce que cela encourage ceux qui n’osent pas aller consulter à le faire ?

Dr. Hinzelin : Il ne faut pas oublier que les machines ont des biais, y compris financiers de remboursement, et des erreurs ou « hallucinations », ce qui peut entraîner des retards et des erreurs de prise en charge. De plus, la machine ne tient pas compte des données incarnées du corps. Il ne s’agit donc que d’un appui, et il faut faire attention à ce que les pauvres ou les « illettrés » numériques ne soient pas tenus en dehors de l’accès au soin.

  • Dans un contexte où les ressources en psychiatrie sont insuffisantes face aux besoins croissants, on peut imaginer que l’IA vienne pallier des manques. Cette technologie peut-elle jouer un rôle dans le soutien aux patients souffrant de maladies chroniques, ou même dans la détection précoce de signes d’aggravation des symptômes ?

Dr. Hinzelin : Oui pour la détection des symptômes si le médecin ou le soignant peut relire rapidement les textes mais ceci nécessite de la disponibilité chez des soignants déjà très occupés. Il faut donc que la technologie soit développée en appui et non en première ligne.

  • L’IA simule l’écoute, mais ne peut pas l’incarner. La machine peut-elle remplacer la présence humaine ?

Dr. Hinzelin : Non mais elle peut « refroidir » les demandes semi-urgentes. L’IA n’est qu’une machine. L’absence d’observation physique de l’autre, de son corps, de son langage et de ses intonations est un facteur limitant important de la machine. Toutefois, elle est à sa place en appui court, mais reste « un miroir » qui ne répond pas vraiment aux questions en particulier existentielles, et parfois même les élargit. Ce qu’il faut comprendre, c’est que l’IA comme ChatGPT est conçue pour « répondre », et donc elle « valide » en général les propos de celui qui la questionne. C’est ça, l’effet miroir dont on parle. Au contraire, un thérapeute, un soignant, un ami n’ira pas toujours dans le même sens que celui qui se questionne ou qui va mal. C’est dans cette altérité, ce véritable échange que l’on peut trouver de nouvelles réponses, se laisser bousculer pour sortir de son mal-être, et commencer un chemin de soins. 

  • Notre société est celle de l’instantanéité, de l’immédiateté. On veut des réponses à tout, tout de suite. Ce phénomène joue-t-il dans le « succès » des chatbots ?

Dr. Hinzelin : Oui, mais cela crée en contrepartie une solitude importante qui accentue l’impatience et donc risque de conduire à une forme de violence envers soi ou les autres. L’empathie nécessite du contact et du temps.

  • Dans La Provence, un jeune homme de 24 ans, chargé de recrutement à Marseille, témoigne : « un an que je l’utilise, je ne peux plus m’en passer. C’est un outil simple, rapide, qui ne me juge pas ». Pensez-vous que le risque de dépendance existe, y a-t-il un caractère addictif à ces divers outils numériques ?

Dr. Hinzelin : Très clairement et des procès existent déjà aux Etats-Unis, comme par exemple celui de ce jeune qui avait été encouragé au suicide par l’IA de Character AI avec qui il discutait.

  • Vous évoquez la tragédie de ce jeune Américain de 14 ans qui s’est suicidé en 2024. Sa mère a porté plainte contre la start-up commercialisant le chatbot dont il était devenu terriblement accro, s’isolant soudainement du monde réel, en passant de plus en plus de temps à « converser » avec un avatar doté de traits de personnalité copiés sur une héroïne de série. Quand des troubles anxieux se sont installés chez lui, les réponses de la « machine » l’ont comme « validés » dans son passage à l’acte. En 2023, un chercheur belge s’est donné la mort, au terme d’échanges intensifs avec le chatbot « Eliza ». Leurs « discussions » sur le réchauffement climatique auraient créé chez le jeune homme une intense éco-anxiété l’ayant conduit à passer à l’acte, d’après son épouse endeuillée. Qu’en est-il pour certaines maladies psychiatriques, comme la schizophrénie, ou des troubles qui créent un problème d’altération avec la réalité. Son usage est-il déconseillé ?

Dr. Hinzelin : C’est évident. La machine est plutôt un élément temporaire de réassurance, mais pas un élément stabilisant, en particulier dans les troubles dissociés de la personnalité où elle dissocie plus encore.

  • Près d’un Français sur deux a recours à l’IA pour effectuer des recherches. Parmi les usages principaux, 27% s’en servent pour « discuter pour régler un problème » relevait l’Ipsos, dans une étude de février 2025. Est-ce risqué de confier toute sa vie, y compris sa vie intime, à ces outils ?

Dr. Hinzelin : Alors il ne faut pas oublier les 20% d’erreur de la machine, et donc une confiance qui, si elle est aveugle, entraîne une augmentation des situations difficiles. Comme par exemple cette femme qui a divorcé parce qu’elle faisait plus confiance à ce que lui disait ChatGPT en décrivant une infidélité de son mari qui en fait n’existait pas, et ce malgré les dénégations fondées de son mari. De plus ces machines aspirent nos données intimes pour nous accompagner et nous enfermer dans une image de nous-même qui n’est que parcellaire, avec un risque de racornissement réel.

  • Chez un utilisateur en souffrance psychologique qui n’a pas de proche à qui se confier, cette pratique risque de l’isoler davantage. Or, l’isolement est un facteur très aggravant pour la santé mentale. Quelles seraient les modes de prévention à mettre en place, de quelle éducation, information, le grand public, en particulier les plus jeunes, auraient besoin ?

Dr. Hinzelin : Être seul ne permet pas d’être empathique, donc évacue la gentillesse spontanée, donc la miséricorde et on risque de ne générer que des êtres d’impulsion. Il faut créer des endroits ou des temps en commun sans soutien numérique (famille, repas, banquets, soirées, etc.)

Pour aller plus loin

VIDEO – L’intelligence artificielle et le cerveau – Dr. Grégoire Hinzelin. Université de la vie 2022

L’humain au défi de ChatGPT. Opportunités et dangers. VIDEO. Webinaire avec 3 experts qui décryptent les mythes et les réalités de ChatGPT : Le chercheur Bertrand Thirion, responsable d’une équipe de recherche de l’institut de recherche Inria Saclay. Le docteur Grégoire Hinzelin​​​​​​​, médecin neurologue chargé du numérique pour l’Institut cancérologique de l’Ouest. Le professeur Paulo Rodrigues​​​​​​​, doyen de la Faculté de théologie de l’Université Catholique de  Lille.

 

 

ia et santé mentale

Suivez-nous sur les réseaux sociaux :

Articles récents