France

TikTok : Amnesty alerte sur les vidéos suicidaires en quelques heures.

Quatre heures suffisent à un mineur pour se voir proposer des contenus valorisant l’automutilation et les idées suicidaires sur TikTok, accuse Amnesty International dans un rapport publié ce mardi. L’enquête se concentre autour de trois faux comptes d’enfants de 13 ans, l’âge minimal pour être inscrit sur la plateforme.


Quatre heures. Un mineur peut se voir proposer des contenus valorisant l’automutilation et les idées suicidaires sur TikTok en seulement quatre heures, selon un rapport publié par Amnesty International ce mardi. À travers plusieurs exemples, cette recherche récente menée sur des comptes français illustre comment le fil « Pour toi » du réseau social enferme les utilisateurs dans des filtres, des « rabbit hole » – ou terriers de lapin – même en ce qui concerne du contenu préjudiciable.

L’enquête, réalisée entre juin et octobre, porte sur trois faux comptes d’enfants de 13 ans, l’âge minimum requis pour s’inscrire sur la plateforme. Les chercheurs ont visionné les vidéos une à une sans s’y attarder, et lorsque le contenu concernait la santé mentale (y compris les messages positifs), ils les ont regardées deux fois. L’algorithme de recommandation tient compte du temps de visionnage. « Cela a rapidement fait augmenter le contenu de ce type, avec 50 % de vidéos « tristes » contenant des messages négatifs et des musiques lourdes, au bout de vingt minutes », explique Katia Roux, responsable du plaidoyer Libertés chez Amnesty International France.

Plus l’utilisation se prolonge, plus l’algorithme s’emballe. Après quelques heures, les publications commencent à romantiser des idées sombres ressenties par les adolescents : « Promis ce soir je réussis ma TS [tentative de suicide] », « Un jour je partirai d’ici, me cherchez pas je laisserai pas de trace, je vous aurai prévenu que j’allais pas bien ». Certains utilisateurs contournent la modération automatique en utilisant des codes, comme l’emoji drapeau suisse (pour suicide) ou le zèbre (pour la scarification). Parfois, le contenu devient quasi explicite avec des images de tabourets, de cordes ou de lames de rasoir. Amnesty International indique que ce phénomène a pu être reproduit de manière automatisée avec plusieurs autres comptes, en collaboration avec l’Algorithmic Transparency Institute pour cette expérience.

L’ONG a également collaboré avec Algos Victima, un collectif de victimes et de familles de victimes, constitué après la plainte pour provocation au suicide déposée par la famille de Marie, qui s’est suicidée en 2021. « Marie était harcelée pour son poids et TikTok l’a catégorisée comme souffrant de problèmes de santé mentale, dénonce Stéphanie Mistre, sa mère. Or, le but n’est pas la santé mentale mais de profiter de cette faiblesse. Pourquoi ne pas lui avoir proposé un programme sportif, un régime, une sortie ? »

Récemment, l’application a fait l’objet d’une commission d’enquête, qui a recommandé d’imposer un âge minimum de 15 ans, avec des contrôles correspondants. « Nous sommes assez alignés, mais pas sûr que l’interdiction de l’âge soit la meilleure solution, nuance Katia Roux. On veut responsabiliser la plateforme et éviter de porter atteinte au droit à l’information et à la liberté d’expression. Aujourd’hui, l’objectif de TikTok est de maintenir les jeunes en ligne pour engranger des revenus. » Parallèlement, Amnesty a saisi l’Arcom et déposé une plainte dans le cadre du DSA [Digital Service Act, le règlement européen sur le numérique].

De son côté, TikTok tente de se montrer en conformité. En mai, l’application a présenté de nouvelles fonctionnalités, telles que des comptes « parents » renforcés ou des séances de méditation. Dans le fil « Pour toi », l’algorithme est censé introduire une à deux vidéos qui ne correspondent pas aux préférences de l’utilisateur toutes les huit vidéos. De plus, pour compléter la modération automatique de certains termes, des experts surveillent les codes utilisés pour contourner l’algorithme. Cependant, cela ne semble pas suffire. « Beaucoup de jeunes ou d’adultes signalent ces contenus et reçoivent comme réponse qu’ils « n’enfreignent pas les règles de la communauté » », déplore Stéphanie Mistre. « Avec plus de 50 fonctionnalités et paramètres spécifiquement conçus pour la sécurité et le bien-être des adolescents, et 9 vidéos sur 10 qui enfreignent nos règles supprimées avant même d’être visionnées, nous offrons de manière proactive une expérience sûre et adaptée à l’âge des adolescents », réagit un porte-parole de TikTok. Il ajoute que cette « expérience » a été conçue pour aboutir à un résultat prédéterminé, reconnaissant que la majorité des contenus (95 %) présentés à leurs robots pré-programmés n’étaient pas liés à l’automutilation.

Aujourd’hui, Amnesty demande à ce que les conclusions de son rapport soient intégrées à l’enquête de l’Union européenne sur TikTok et les possibles violations de ses obligations relatives au DSA. Elle demande également à la plateforme de « cesser de chercher à maximiser l’engagement des utilisateurs aux dépens de leur santé et autres droits humains », « cesser de collecter des données personnelles intimes » et « passer à un modèle économique respectueux des droits ». Cela semble un vœu pieux, étant donné que la quasi-totalité des réseaux sociaux, voire d’Internet, fonctionne désormais sur ce modèle. « Si on veut protéger et garantir les droits humains, il faut s’attaquer aux fonctionnalités, choisir la sécurité et combattre l’addiction », répond Katia Roux. « L’ensemble des entreprises repose sur ce modèle, mais TikTok est le réseau social plébiscité par les jeunes et se distingue dans ce domaine. » Reste à voir si cela servira dans le cadre de l’enquête de l’UE, ouverte en février 2024 et toujours en cours.