Plus de 1,2 million d’utilisateurs discutent du suicide avec ChatGPT chaque semaine.
Chaque semaine, environ 0,15 % des utilisateurs actifs de la plateforme échangent avec le modèle d’intelligence artificielle sur des sujets liés au suicide ou à l’automutilation, représentant environ 1,2 million de personnes sur près de 800 millions d’utilisateurs hebdomadaires. D’après l’Organisation mondiale de la santé, plus de 720.000 personnes se suicident chaque année à travers le monde et le suicide est la troisième cause de mortalité chez les 15-29 ans.
OpenAI a publié les résultats d’une étude interne sur l’utilisation de ChatGPT dans des situations de détresse émotionnelle. Les données révélées sont à la fois inédites et préoccupantes. Chaque semaine, environ 0,15 % des utilisateurs actifs de la plateforme conversent avec le modèle d’intelligence artificielle sur des sujets relatifs au suicide ou à l’automutilation. Ce pourcentage, rapporté aux près de 800 millions d’utilisateurs hebdomadaires, correspond à environ 1,2 million de personnes.
L’entreprise précise que ces échanges ne concernent pas des cas de suicide avérés, mais incluent des conversations avec des indicateurs de mal-être psychique : des phrases traduisant la perte d’espoir, la culpabilité ou le souhait d’en finir avec la vie. Ces signaux sont identifiés grâce à des systèmes de détection intégrés permettant à l’IA de réagir de manière appropriée et d’orienter les utilisateurs vers une aide humaine. Pour OpenAI, l’intention n’est pas de remplacer la relation thérapeutique, mais d’intervenir avec empathie et précaution en cas de détresse avérée.
Pour renforcer cette capacité, l’entreprise a collaboré avec plus de 170 psychiatres, psychologues et médecins provenant de 60 pays. Ensemble, ils ont élaboré des guides cliniques pour permettre au modèle GPT-5, utilisé par défaut dans ChatGPT, de mieux identifier les signes de crise, d’éviter de confirmer des croyances délirantes et de proposer des ressources d’aide, telles que les lignes d’urgence ou le soutien de proches. Ces modifications ont permis de réduire de 65 à 80 % les réponses jugées inappropriées dans des domaines sensibles comme la psychose, la manie, l’automutilation et la dépendance émotionnelle envers l’IA, selon OpenAI.
Ces chiffres s’inscrivent dans un contexte mondial déjà alarmant. Selon l’Organisation mondiale de la santé, plus de 720.000 personnes mettent fin à leurs jours chaque année dans le monde. Le suicide est la troisième cause de mortalité chez les 15-29 ans, et près de 73 % des suicides surviennent dans des pays à faible ou moyen revenu. L’OMS souligne que les comportements suicidaires sont souvent déclenchés par des crises aiguës — qu’elles soient financières, relationnelles ou de santé — et compliqués par l’isolement social, la stigmatisation et le manque de dispositifs de soutien.
Les tentatives de suicide sont, pour leur part, bien plus fréquentes, et avoir déjà essayé de mettre fin à ses jours représente un facteur de risque important. Malgré cela, seuls 38 pays disposent actuellement d’une stratégie nationale de prévention. Pour l’OMS, la lutte contre le suicide nécessite des actions coordonnées : restreindre l’accès aux moyens de se suicider, promouvoir l’éducation émotionnelle des jeunes, former les professionnels de santé à repérer les signaux d’alerte et encourager les médias à aborder le sujet de manière responsable.
En révélant que des centaines de milliers de personnes se tournent chaque semaine vers une IA pour partager leur détresse, OpenAI met en évidence une réalité à la fois technologique et humaine. Dans un monde où les interactions se virtualisent, les échanges avec un agent conversationnel deviennent parfois le seul moyen d’exprimer la souffrance. Cependant, pour OpenAI, la distinction est claire : « ChatGPT peut écouter, apaiser et orienter, mais il ne remplacera jamais la chaleur d’une présence humaine ni la main tendue d’un professionnel, » conclut l’entreprise.

