France

Méditation, contrôle parental renforcé… TikTok annonce de nouvelles mesures pour la sécurité des ados

Entre une assignation en justice dans l’affaire du suicide d’une adolescente en novembre, la menace d’ouverture d’une commission d’enquête et autres critiques récurrentes sur l’impact des écrans, TikTok est sous le feu des critiques. L’application, utilisée par 25 millions d’utilisateurs en France dont plus de la moitié a moins de 24 ans, assure pourtant mettre en place plusieurs outils pour répondre aux inquiétudes. Et elle devrait déployer plusieurs nouvelles fonctions à disposition des parents et des adolescents dans les jours qui viennent.

Le « mode famille » de TikTok, qui existe depuis 2020, va recevoir une mise à jour avec davantage d’options de contrôle parental. Les parents pourront définir des temps hors écran, des plages horaires où l’adolescent n’a pas accès à l’application, ou bien pour un temps limité. Autre nouveauté : la connexion familiale permettra aux parents de voir les comptes suivis par leurs ados, ainsi que les comptes bloqués ou les abonnés.

Méditation (presque) obligatoire à 22 heures

Du côté des utilisateurs de moins de 16 ans, il y aura aussi du nouveau. A partir de 22 heures, le scroll des vidéos TikTok sera interrompu par une séance de… méditation. De quoi inciter les ados à se relaxer et lâcher l’écran pour aller dormir ? La vidéo est relativement triviale à passer, mais c’est l’intention qui compte. Autre ajout : lorsqu’un jeune utilisateur signale une vidéo, il peut aussi partager ce signalement avec un adulte de référence. Ces nouvelles dispositions s’ajoutent à une série de fonctionnalités, ajoutées depuis le lancement de l’application en Europe en 2018, comme la restriction des messages privés aux plus de 16 ans ou l’exclusion des contenus d’utilisateurs mineurs du fil de recommandations « Pour toi ».

Il n’est pas encore question d’une vérification d’âge obligatoire comme sur les sites pornos, mais TikTok utilise des outils pour chasser les utilisateurs en dessous de l’âge réglementaire de treize ans. Une vérification automatique, basée sur la reconnaissance faciale ou l’analyse vocale, signale les utilisateurs qui pourraient être trop jeunes. Entre juillet et septembre, l’application a ainsi supprimé 24 millions d’utilisateurs de moins de treize ans qu’elle avait identifiés.