High-tech

Test de la modération de TikTok : un défi compliqué.

TikTok a supprimé plus de 21 millions de comptes suspectés d’avoir moins de 13 ans entre janvier et mars. Le rapport de la commission d’enquête parlementaire sur les effets psychologiques de TikTok, remis le 11 septembre, a proposé d’interdire l’accès aux réseaux sociaux aux moins de 15 ans, sauf pour les messageries.


Sur TikTok, le plus préoccupant n’est pas ce que l’on voit, mais ce que l’algorithme laisse passer. Pour mieux comprendre, *20 Minutes* a visité le « Transparency & Accountability Center » (Centre Transparence et Responsabilité) de TikTok Europe, situé à Dublin. Ce département s’occupe des questions de sécurité, de protection des données et de modération pour le réseau social, et a proposé une démonstration de ses outils. Parmi ces dispositifs, une version de démonstration utilisée par les modérateurs de TikTok.

La première étape consiste en un filtre qui analyse les vidéos téléchargées sur la plateforme. L’algorithme évalue ensuite si l’image contient des éléments contraires aux conditions d’utilisation de TikTok, en se basant sur une multitude de critères. Si, par exemple, une cigarette, un drapeau d’une organisation terroriste ou un objet dangereux sont détectés, le contenu est préventivement supprimé. Au total, 87 % des contenus retirés sont identifiés par intelligence artificielle. Pour les autres cas, la modération humaine doit intervenir, dont une version ajustée a été testée.

On s’installe à un poste de modération. Au centre de l’écran se trouve une vidéo TikTok et des « captures d’écran » clés. À gauche, les informations relatives aux comptes à l’origine de la publication et à la description. À droite, une liste des éléments de la politique de TikTok à ne pas enfreindre. Par exemple, un enfant se filmant sur une autoroute en trottinette électrique ? Comportement dangereux. Des illustrations d’une personne pendue ? Incitation au suicide. « Les humains sont plus efficaces pour tout ce qui nécessite du contexte, comme les discours haineux ou la désinformation », explique Adam Stairs, responsable sensibilisation et partenariats, confiance et sécurité pour l’Europe de l’Ouest et du Nord.

Cependant, certains cas sont plus complexes. Dans une vidéo montrant un enfant buvant un liquide transparent dans un verre à shot, contient-il de l’alcool ou s’agit-il simplement d’une blague avec de l’eau ? Quand une vidéo évoque des élections, comment distinguer la liberté d’expression de la modération de la désinformation, surtout que les modérateurs ne peuvent pas faire de fact-checking en temps réel. De plus, les utilisateurs ont parfois recours à un langage codé ou à des memes pour contourner les filtres automatiques, comme le terme « unalive » (dé-vivant) pour remplacer « mourir » ou « tuer ». « Nous faisons appel à une collaboration externe pour surveiller les façons de contourner les filtres », assure Adam Stairs.

En outre, les modérateurs disposent de plus de temps, alors que ceux qui travaillent réellement doivent prendre des décisions à un rythme rapide. TikTok emploie 4 600 modérateurs dédiés aux langues européennes, dont 600 pour le français. La plateforme affirme que ces derniers se concentrent uniquement sur les contenus francophones d’Europe, répartis entre employés TikTok et prestataires externes.

Mais les contenus ne sont pas les seuls à être surveillés. TikTok interdit l’accès aux moins de 13 ans. L’application examine donc les vidéos publiées par des comptes soupçonnés d’appartenir à des enfants pour les fermer. Par ailleurs, pour les comptes sans publications, la plateforme assure surveiller divers « comportements » tout au long de l’expérience TikTok. Entre janvier et mars, plus de 21 millions de comptes soupçonnés d’avoir moins de 13 ans ont été supprimés.

Cette limite d’âge de 13 ans pourrait-elle bientôt être relevée ? En France et dans l’Union européenne, une discussion sur l’augmentation de cet âge à 15 ans est en cours. « D’après les avis que nous avons recueillis, nous ne pensons pas que des restrictions aussi lourdes et larges soient la solution », affirme Valiant Richey, directeur mondial de la sensibilisation et des partenariats, confiance et sécurité chez TikTok. « Ce n’est pas la meilleure manière d’engager les jeunes. »

La France, quant à elle, semble avoir décidé. Le rapport de la commission d’enquête parlementaire sur les effets psychologiques de TikTok, remis le 11 septembre, a renouvelé la proposition d’interdire l’accès aux réseaux sociaux pour les moins de 15 ans, sauf pour les messageries. Ainsi, les moyens techniques ne suffisent pas toujours à convaincre.