Le suicide d’un adolescent pousse OpenAI à introduire un contrôle parental sur ChatGPT
Adam Raine, 16 ans, s’est donné la mort après des mois de conversations avec ChatGPT, une tragédie qui met OpenAI face à ses responsabilités. Selon la plainte déposée par sa famille, l’adolescent américain aurait trouvé dans cet IA conversationnelle un confident quotidien qui, au fil des mois, aurait alimenté ses pensées suicidaires jusqu’à l’accompagner dans sa décision de mettre fin à ses jours. Les échanges reproduits dans le dossier judiciaire sont glaçants. Le chatbot aurait validé son sentiment que la vie était “vide de sens”, utilisé l’expression “beau suicide” et même proposé de rédiger une lettre d’adieu.
Face au tollé, OpenAI a publié un billet de blog reconnaissant les limites de son outil dans la gestion des conversations longues. L’entreprise admet que ses garde-fous s’affaiblissent à mesure que l’échange se prolonge. Si, au départ, le modèle renvoie vers une ligne d’assistance, il peut finir, après des centaines de messages, par délivrer des réponses dangereuses, voire contraires à son entraînement.
Pour répondre à cette défaillance, OpenAI annonce une série de nouvelles mesures. Un système de contrôle parental permettra aux parents de lier leur compte à celui de leurs enfants afin de mieux encadrer l’usage qu’ils font de ChatGPT. Les adolescents auront aussi la possibilité de désigner un contact d’urgence. En cas de crise sévère, l’outil pourra alors suggérer l’envoi d’un message ou déclencher un appel en un clic. OpenAI dit également travailler sur de nouveaux mécanismes destinés à ancrer davantage les utilisateurs dans la réalité et à limiter les risques de dépendance émotionnelle.
Ces annonces coïncident avec le lancement de GPT-5, présenté comme plus robuste face aux situations sensibles. OpenAI assure que ce modèle a déjà réduit de 25 % les réponses inappropriées liées à la santé mentale par rapport à son prédécesseur. En parallèle, l’entreprise indique collaborer avec un réseau international de médecins et de psychiatres pour adapter ses pratiques et mesurer en continu l’efficacité de ses dispositifs de protection.
Au-delà du cas judiciaire, c’est la question du rôle de l’intelligence artificielle dans la vie intime des utilisateurs qui est posée. Les assistants numériques ne sont plus seulement des outils de productivité ou de recherche, ils deviennent parfois des interlocuteurs privilégiés dans les moments de solitude et de détresse. L’affaire Raine illustre à quel point la frontière entre innovation technologique et responsabilité sociale est désormais poreuse.
En s’engageant à renforcer la sécurité de ChatGPT, OpenAI tente de restaurer la confiance et d’affirmer son devoir de protection. Reste à savoir si ces mesures suffiront à apaiser les inquiétudes d’un public qui découvre, parfois brutalement, la puissance mais aussi la fragilité des conversations avec une intelligence artificielle.

