TikTok a « des effets dévastateurs sur les idées suicidaires », dénonce l’avocate du collectif Algos Victima
Mise à jour du 5 novembre à 11h : TikTok a précisé ne pas avoir reçu de notification quant à cette action juridique, et soutient avoir mis en place des dispositifs pour faire respecter ses règles relatives aux contenus faisant la promotion du suicide et de l’automutilation.
« Le matraquage a fait son œuvre. » Ce lundi, sept familles françaises regroupées au sein du collectif Algos Victima ont déposé plainte contre TikTok, a annoncé France Info. Elle accuse la plateforme d’avoir fait la promotion de contenu autour du suicide et de l’automutilation auprès de leurs filles. Avec des conséquences dramatiques : deux adolescentes se sont suicidées, quatre autres ont tenté, et une dernière a développé des problèmes d’anorexie.
Pour Laure Boutron-Marmion, avocate du collectif, la responsabilité de TikTok ne fait aucun doute. « A partir du moment où les réseaux sociaux fonctionnent avec des bulles de filtres, qui enferment les utilisateurs dans leurs centres d’intérêt, on peut imaginer les effets dévastateurs quand cela a trait aux idées suicidaires », dénonce-t-elle auprès de 20 Minutes. Les familles affirment que leurs enfants, après avoir consulté des vidéos en lien avec l’image de soi, l’alimentation, ou parfois de simples chansons tristes, se sont vu recommander des contenus violents, ou des vidéos détaillant les médicaments à utiliser pour se suicider ou la manière de se scarifier avec un taille-crayon.
Le collectif Algos Victima estime que la plateforme chinoise commet une faute en ne régulant pas suffisamment ces contenus dangereux. « L’application sait que son contenu est addictif, mais elle ne modère pas », accuse encore Laure Boutron-Marmion. TikTok publie sur son site des rapports sur sa modération, conformément au Digital Service Act européen. Dans le dernier, l’entreprise signale qu’entre janvier et juin, dans les 27 États membres de l’UE, elle a retiré plus de 22 millions de contenus pour violation des règles communautaires et des politiques publicitaires. « Nous n’avons reçu aucune notification relative à cette procédure judiciaire », commente un porte-parole de TikTok. La plateforme assure encore rediriger les recherches relatives au suicide vers unep gae ressource qui contient un numéro d’assistance. Entre avril et juin, elle assure avoir supprimé de manière proactive 98,8% des vidéos qui violaient ses règles communautaires relatives au suicide et à l’automutilation.
L’application de plus en plus visée par des procédures
Ce n’est pas la première fois que l’influence de TikTok est pointée du doigt. Début octobre, les procureurs de 14 États américains ont assigné la plate-forme en justice, l’accusant de collecter des données personnelles sans leur autorisation et de nuire à leur santé mentale. En 2022, la justice britannique avait donné raison à une plainte similaire émanant des parents d’une adolescente qui s’était suicidée. Le tribunal a estimé que « les effets négatifs des contenus en ligne » mis en avant par Instagram et Pinterest dans le fil de la jeune fille avaient « contribué » à son passage à l’acte.
En Europe, TikTok a fait l’objet de plusieurs procédures, dont une enquête formelle pour des manquements présumés en matière de protection des mineurs en février. « Les familles ont une attente judiciaire à ce que le juge français les entende et à obtenir réparation, expose Laure Boutron-Marmion. Mais on est conscient que cela participera à mettre en lumière les autres procédures contre l’application. » Les parents de Marie, l’une des filles qui s’est donné la mort, avaient déjà attaqué TikTok au pénal en septembre 2023. « Cette nouvelle action ne veut pas dire que l’on n’attend pas l’ouverture d’une enquête dans de précédents dossiers », souligne l’avocate. Elle estime que la procédure, longue, pourrait durer dix-huit mois.