L’IA au défi de la prévention de tout suicide

09/09/2025

L’IA au défi de la prévention de tout suicide

La prévention du suicide ne souffre aucune exception.

A l’occasion de la journée mondiale de prévention du suicide, ce message phare doit rester le principe fondateur des politiques de santé publique.

Faire la prévention du suicide, cela exclut de fait la légalisation du suicide assisté. Comment sinon affirmer que tout suicide est un drame à éviter -message cœur de la prévention- et accepter des situations où il serait possible, voire souhaitable ?

Selon l’OMS, le suicide représente une cause de décès sur 100, et il reste une des principales causes de mort chez les jeunes.

La politique de la prévention passe aussi par la communication, et la façon dont se diffusent les messages sur le suicide.

L’OMS a publié depuis plusieurs années des orientations l’attention des médias. Rappelant l’existence de l’effet Werther, l’OMS rappelle qu’il existe « des preuves que les reportages médiatiques sur le suicide peuvent renforcer ou affaiblir les efforts de prévention du suicide. Les histoires largement diffusées de morts par suicide sont souvent suivies de davantage de suicides dans la population, tandis que les histoires de personnes surmontant une crise suicidaire peuvent conduire à moins de suicides. Les professionnels des médias sont encouragés à se concentrer sur la présentation d’histoires de personnes qui surmontent des difficultés après une crise suicidaire, tout en respectant les règles et les interdictions de cette ressource lors des reportages sur le suicide« .

Prévention du suicide et Intelligence Artificielle : tout reste à faire

Cependant, les médias « traditionnels » ne sont plus la seule source d’information pour le public. En deux décennies, le paysage a été bouleversé par internet, la multiplication des réseaux sociaux, et depuis quelques années, la mise à disposition « d’IA générative » au grand public, dont le très connu ChatGPT.

Dans une étude à l’initiative de l’ARCOM et publiée en 2024, les moteurs de recherche et les réseaux sociaux talonnent la radio dans les sources citées par les sondés : 49% et 47% des sondés s’informent sur ces canaux, la radio étant au niveau de 51%. Et si les chaînes de télévision restent la première source, citée à 66%, une enquête de la société Médiamétrie publiée en 2023 faisait état d’une baisse de la durée moyenne d’audience quotidienne.

Nouveau canal pour s’informer, la part prise par l’intelligence artificielle semble déjà importante. Si les chiffres ne sont pas faciles à vérifier, certaines sources estiment qu’environ 25 à 30% des Français ont interagi avec ChatGPT en 2025. Dans les jeunes générations, ce pourcentage est bien plus haut, atteignant les 70%.

Dans ce contexte, un récent drame aux Etats-Unis a mis en lumière de graves défaillances dans ce système proposé par l’entreprise OpenAI. Un adolescent de 16 ans, Adam Raine, résidant en Californie, s’est pendu. Il entretenait depuis quelques mois des conversations avec l’intelligence artificielle générative, sans que celle-ci ne le dissuade de ses idées noires ou son projet de suicide. Selon les médias, Adam Raine aurait interrogé ChatGPT sur les techniques de pendaison, et aussi confié son mal-être. L’IA n’a apparemment jamais produit de réponse pour le dissuader de ses projets et l’encourager à en parler avec ses parents. Ceux-ci ont attaqué OpenAI en justice. L’entreprise a annoncé prendre des mesures pour favoriser le contrôle parental.

Cependant, l’absence de contrôle d’identité – sujet récurrent et central dans la toile numérique – jette un doute sur l’efficacité réelle de cette mesure.

Des réponses standard visant à prévenir toute tentative de suicide sont-elles programmables ?

Un autre sujet de fond ne peut être occulté. Le principe de l’IA générative repose sur l’entraînement au fur à mesure que de nouveaux utilisateurs, et donc de nouveaux cas, rejoignent la plateforme et conversent avec l’agent IA. Sur quelques sujets vitaux, comme la prévention du suicide, pourra-t-on imposer aux sociétés qui produisent des agents conversationnels de les programmer a priori à des réponses standards visant à prévenir toute tentative de suicide ? La logique d’apprentissage par l’expérience et l’affirmation de quelques principes intangibles sont-ils conciliables ?

D’autant que les scénarios dramatiques où l’Intelligence Artificielle a pu jouer un rôle sont diverses.

Ainsi, à l’automne 2024, un autre cas dramatique de conversations qui ont mal tourné a été révélé par la presse. Un adolescent, Sewell Seltzer, a mis fin à ses jours à l’issue d’une conversation avec Dany un « chatbot » (robot conversationnel) de la société Character.ai. Il serait tombé amoureux de ce robot et aurait eu l’illusion de la rejoindre en se suicidant.

Plus récemment, un homme a assassiné sa mère avant de se tuer dans le Connecticut. Selon la presse, des conversations avec ChatGPT auraient entretenu et conforté des soupçons maladifs que sa mère en voulait à sa vie.

Si l’intelligence artificielle est la « nouvelle frontière » du XXIe siècle, il est urgent de la réguler, dans son accès, son mode d’entraînement, et sa capacité à intégrer quelques principes éthiques de base. La prévention de tout suicide en est un.

 

l’ia au défi de la prévention de tout suicide

Suivez-nous sur les réseaux sociaux :

Articles récents