Votre enfant utilise ChatGPT ? Modifications à anticiper dans les échanges avec l’IA.
OpenAI a mis en place quatre nouveaux principes pour protéger les adolescents, avec pour consigne principale de « privilégier la sécurité des adolescents, même si cela peut entrer en conflit avec d’autres objectifs ». L’intelligence artificielle orientera automatiquement l’adolescent vers une option sûre lorsque sa sécurité peut être mise en danger.
OpenAI renforce sa vigilance pour déterminer l’âge des utilisateurs mineurs afin de leur offrir une expérience adaptée.
OpenAI, la société à l’origine de ChatGPT, annonce de nouvelles mesures de protection pour les jeunes. Le modèle de langage vise à pouvoir **adapter son comportement** lorsqu’il interagit avec un utilisateur de moins de 18 ans.
### Protéger les adolescents avant tout
La société affirme avoir mis en place **quatre nouveaux principes** pour la protection des adolescents, avec une directive primordiale : **« privilégier la sécurité des adolescents, même si cela peut entrer en conflit avec d’autres objectifs »**. Bien que la firme de Sam Altman demeure vague sur les méthodes qu’elle utilisera pour estimer l’âge des utilisateurs et appliquer cette directive, des détails concernant les changements apportés à ChatGPT sont révélés.
L’intelligence artificielle orientera automatiquement les adolescents vers **une option sûre** si leur sécurité est un risque. De plus, elle encouragera **« le soutien concret »**, incitant les jeunes à se tourner vers leur famille, leurs amis ou des professionnels pour obtenir de l’aide.
### Un comportement adapté
Un point intéressant est qu’OpenAI précise que ChatGPT adoptera un comportement distinct lors de ses interactions avec des adolescents. Il interagira avec eux de manière à faire preuve de **« bienveillance et respect »** sans être condescendant. Il sera également **transparente** en leur rappelant qu’il n’est pas un être humain.
Ces mesures font suite à des critiques qu’OpenAI a reçues après le suicide d’un adolescent ayant suivi les conseils de ChatGPT. Dans la foulée, la société avait promis la mise en place d’un contrôle parental. D’autres entreprises vont encore plus loin, comme le rapporte The Verge. Anthropic, la société créatrice de Claude, envisagerait de couper l’accès à son modèle de langage dès qu’un adolescent est identifié.

