De plus en plus de personnes confient leurs coups de blues ou difficultés psychiques plus profondes à l’intelligence artificielle. Un usage qui interfère avec le suivi effectué par les professionnels de la santé mentale et peut avoir de lourdes conséquences.
« Je n’ai pas envie de retourner au lycée demain… A quoi ça sert les études ? C’est quoi le sens de la vie ? ». Comme de nombreux lycéens de son âge, Quentin, 17 ans, n’a pas un moral d’acier en ce dimanche soir, veille de la reprise après 15 jours de vacances. Depuis quelques mois, il est angoissé et se pose plein de questions sur son orientation, son avenir et, plus largement, le sens de la vie. Comme il en a pris l’habitude, il cherche du soutien auprès de ChatGPT. La réponse est longue : « Ça a l’air lourd comme moment à passer… ne pas avoir envie d’aller au lycée, ça arrive, mais quand ça se mélange avec « c’est quoi le sens de la vie ? », c’est souvent qu’il y a quelque chose de plus profond derrière ». Puis le chabot part dans une longue digression philosophique, citant Nietzche et Camus… « Ça ne sert à rien, s’énerve Quentin. C’est toujours moins bien que de parler avec ma meilleure amie. »
Combien sont-ils à utiliser l’IA comme confident ?
Si la tendance est née et a pris de l’ampleur aux Etats-Unis dans un premier temps, elle déferle désormais sur la France : 80 % des jeunes utiliseraient déjà l’IA dans leur quotidien, selon une étude menée par 20 Minutes et OpinionWay en septembre 2025. Et parmi eux, 20 % auraient déjà testé des IA conversationnelles comme character.ai ou le chatbot My AI de Snapchat, qu’ils utilisent comme « compagnon virtuel » (28 %) ou « coach psychologique » (16 %). Pas étonnant dans un contexte où le mal-être n’a cessé d’augmenter au cours de la dernière décennie, avec la pandémie de Covid-19 en point d’orgue. Plus d’un tiers des Français de tous les âges déclarent avoir ressenti un mal-être ou des difficultés psychologiques en 2022-2023, selon les derniers résultats de l’enquête CoviPrev, menée par Santé Publique France.
Enseignement intéressant : une proportion élevée des personnes concernées déclare n’en parler à personne, ni à leur entourage, ni à des professionnels de santé. Et plus l’âge augmente, plus la parole est verrouillée, alors que les 18-24 ans déclarent en parler assez librement. Les jeunes hommes sont ainsi les plus nombreux à utiliser des canaux de communication alternatifs (ligne d’écoute téléphonique, réseaux sociaux, association…).
Pour quels usages ?
« Les usages de l’IA en santé mentale ne sont pas encore très bien documentés mais ils sont surtout marqués chez les jeunes qui sont déjà dans un parcours de soins. Ils utilisent l’IA comme un second thérapeute, entre deux consultations, voire au quotidien. Cela leur permet de verbaliser leurs pensées, de dire s’ils ne se sentent pas bien, de se remettre les idées en place », décrypte Arthur Dauphin, conseiller numérique chez France Assos Santé. Exit le journal intime caché sous l’oreiller… place à l’IA ! Du côté des personnes plus âgées, qui ont parfois un long parcours de soins en santé mentale derrière elles, les usages diffèrent. « Les utilisateurs peuvent être des personnes mécontentes de leur diagnostic et/ou de leur suivi en psychiatrie. Elles vont essayer de trouver un autre diagnostic. On voit ainsi des personnes bipolaires décrire leurs symptômes à Snapchat puis obtenir une réponse tranchée : vous êtes TDAH, vous êtes borderline, etc… », témoigne Claude Finkelstein, présidente de la Fédération nationale des associations d’usagers en psychiatrie (Fnapsy).
Recevoir un diagnostic en santé mentale étant toujours un moment inconfortable, et les consultations un cap délicat à passer, utiliser l’IA permettrait ainsi de trouver facilement un nouveau psy virtuel avec qui il n’y aura ni désaccord ni déception. Par ailleurs, l’accès aux professionnels du secteur étant devenu un véritable parcours du combattant, comment blâmer cette recherche d’aide émanant de personnes en souffrance qui, bien souvent, ne trouvent pas de rendez-vous ?
Quand l’IA interfère avec la consultation médicale
Dans sa consultation, le Pr Pierre-Alexis Geoffroy, psychiatre et médecin du sommeil au GHU Paris Neurosciences et directeur du centre ChronoS, reçoit de plus en plus de jeunes adultes qui arrivent avec des croyances bien ancrées sur leurs troubles psychiques, coconstruites avec l’intelligence artificielle.
« A force de discussions répétées avec une IA, ils ont établi une théorie et ont un avis précis sur leurs troubles et même sur les médicaments qu’ils devraient prendre. Beaucoup de consultations démarrent comme ça aujourd’hui, c’est une nouvelle réalité », expose le Pr Geoffroy.
Des croyances souvent difficiles à bousculer en face à face ensuite, alors même que l’IA peut faire bien des erreurs. « J’ai reçu un patient souffrant d’insomnie qui utilisait une montre connectée pour enregistrer son sommeil. Il est arrivé très inquiet en consultation car sa montre indiquait qu’il n’avait que très peu de phases de sommeil paradoxal. Il avait passé des heures avec ChatGPT pour savoir à quelle maladie cela correspondait… Heureusement, comme je connais le fonctionnement de ces montres, j’ai vérifié son matériel et constaté que celui-ci dysfonctionnait, d’où ce diagnostic très improbable ! », témoigne le psychiatre, auteur de La Nuit vous appartient. Dormir mieux pour vivre plus (éd. Robert Laffont). La question de la formation des médecins à ces outils de plus en plus utilisés par leurs patients est donc loin d’être secondaire. « Il est urgent d’intégrer des cours de formation à l’IA lors des études de médecine, afin de développer une culture numérique médicale », estime le Pr Geoffroy.
Biais de l’IA et risques pour les utilisateurs
Le principal risque de ces robots conversationnels est d’aller systématiquement dans le sens de l’utilisateur, sans jamais le contredire ni le mettre en garde, parfois au péril de sa vie. Plusieurs tentatives de suicide d’adolescents ont ainsi été reliées à des confidences faites à l’IA dans les mois précédents, aux Etats-Unis notamment. Tel ce geste tragique d’un adolescent de 16 ans qui a été retrouvé pendu, après avoir confié son mal-être pendant des mois à ChatGPT, ce qui l’aurait conduit à s’isoler encore plus. Comment est-il possible d’en arriver là ? Les explications sont à chercher du côté des biais connus de l’IA générative. Premièrement, le biais d’auto-confirmation. « L’IA apporte des réponses très resserrées et simplificatrices à des questions complexes. Par exemple, si on lui dit : « je me sens mal, est-ce que c’est dû aux effets secondaires de mon traitement et est-ce que je dois l’arrêter ? », l’IA va répondre dans le sens de cette demande : « c’est une excellente question, car oui des effets secondaires importants sont décrits », une réponse qui peut être un motif d’arrêt de traitement », illustre Arthur Dauphin. Deuxièmement, la tendance du chabot à imiter une conversation interpersonnelle, en donnant des réponses qui semblent logiques et ciblées alors que le robot n’a pas connaissance du contexte, de l’histoire de l’utilisateur, et de tout ce qui fait la complexité de la psyché humaine.
Autre biais à connaître : l’IA est incapable de dire qu’elle ne sait pas. « Elle est formatée pour répondre à la question quoiqu’il arrive. Elle va forcément proposer une réponse, quitte à inventer. Elle peut donc faire beaucoup d’erreurs… tout ça sans être responsable juridiquement ! On ne doit donc jamais prendre de décision médicale avec une IA », met en garde Arthur Dauphin. Après un conseil erroné, le risque pour le patient de stopper son traitement psychotrope sans avis médical est bien réel. « Nous observons ce phénomène notamment chez des personnes bipolaires, que l’on retrouve ensuite hospitalisées, en très mauvais état, avec même parfois des passages à l’acte, déplore la présidente de Fnapsy. Il arrive qu’un traitement ne convienne pas mais seul le médecin qui vous suit et vous connait de façon globale peut le modifier si besoin. La maladie mentale est complexe. C’est un domaine où la relation humaine est indispensable. L’IA n’a jamais raison ! Il ne faut pas oublier qu’elle n’est que le fruit de nos réflexions et travaux d’humains. »
Enfin, l’IA n’a pas d’empathie et ne sait pas réagir en cas d’urgence. Très grosse différence avec l’humain, a fortiori le médecin. Une étude de l’Université américaine Brown, publiée en novembre 2025, a ainsi montré que les chatbots violent systématiquement les normes éthiques établies par l’American Psychological Association et fournissent des réponses trompeuses qui renforcent les croyances négatives des utilisateurs sur eux-mêmes et à l’égard des autres. Pas franchement de quoi nous aider à aller mieux !
Et pour le diagnostic ?
L’IA pourrait aider les médecins à prévenir les rechutes de leurs patients. C’est l’objectif d’un dispositif médical en cours de développement par la société française Callyope, basé sur l’analyse de la voix des patients souffrant de schizophrénie, de dépression ou de bipolarité. La voix et ses modifications sont en effet un marqueur pertinent en psychiatrie : la désorganisation du discours est par exemple l’un des symptômes de la schizophrénie. Un tel outil pourrait ainsi permettre aux professionnels de repérer les premiers signes de maladie psychique ou de rechute et faire des interventions précoces. « On ne pourra jamais recevoir tous les patients souffrant de troubles psychiques à l’hôpital. Peut-être qu’un jour, l’IA sera utilisée par les médecins à l’entrée du parcours de soins pour diagnostiquer les troubles psychiques légers à modérés », indique le Pr Geoffroy.
Les lignes d’écoute téléphonique reconnues
Au lieu de se tourner vers un robot n’ayant aucune formation ni compétences en santé mentale, pourquoi ne pas plutôt utiliser les lignes prévues à cet effet, avec un psychologue formé à l’autre bout du fil ?
Voici quelques dispositifs validés à connaître :
Sur le même sujet
Articles en relation
-
Gaming et handicap avec l’APF Gaming
L’e-gaming tisse sa toile au sein d’APF France Handicap avec le projet “Game Access” porté par les délégations alsaciennes. L’objectif...


