France

Pourquoi des utilisateurs ont-ils vu (malgré eux) des Réels ultra-violents sur Instagram ?

Meurtres, corps mutilés, accidents mortels… Ces images sordides sont apparues dans les fils Reels de nombreux utilisateurs d’Instagram ces derniers jours. Des vidéos extrêmement violentes se sont retrouvées recommandées, y compris à des mineurs, sans avertissement préalable. Sur les réseaux sociaux, l’indignation est montée, les internautes exprimant leur incompréhension face à ces recommandations choquantes.

L’incident pose des questions graves sur la modération des contenus par Meta, la société mère d’Instagram, et sur les défaillances potentielles de son algorithme. Explications.

Comment ces vidéos se sont-elles retrouvées dans les Reels ?

Le problème a été signalé en fin de semaine dernière par de nombreux utilisateurs sur Twitter et TikTok, où des captures d’écran de ces contenus choquants ont rapidement circulé. Selon plusieurs témoignages, même les personnes ayant activé le « contrôle du contenu sensible » ont reçu ces vidéos, mettant en doute l’efficacité des paramètres de sécurité du réseau social.

Selon CNBC, certains des contenus concernés présentaient des scènes de démembrements, des entrailles visibles, des corps carbonisés, ainsi que des « remarques sadiques à l’égard d’images représentant la souffrance d’êtres humains et d’animaux ». On a même recensé des images de fusillades dans des écoles et des scènes de violences sexuelles.

« Pendant deux jours, une vidéo sur deux que je voyais dans mes Reels montrait des scènes de violence extrême : des fusillades, des agressions au couteau, sans aucun filtre ni floutage. En regardant les profils qui publiaient ces contenus, je me suis rendu compte qu’il s’agissait de nouveaux comptes créés récemment. Ce phénomène a duré toute une après-midi, puis une soirée et encore une matinée », raconte Zac, un utilisateur concerné de 24 ans.

Meta pointe un bug, mais des zones d’ombre persistent

D’après le média TechCrunch, c’est l’algorithme de recommandation des Reels qui serait en partie responsable. En effet, conçu pour maximiser l’engagement, il met en avant les contenus suscitant de fortes réactions, y compris négatives, explique le média Konbini. Plus une vidéo est visionnée, commentée ou partagée, plus elle a de chances d’être recommandée à d’autres utilisateurs. Cette logique pourrait expliquer comment ces vidéos ultra-violentes ont rapidement proliféré sur la plateforme.

Face à la polémique grandissante, Meta a publié un communiqué reconnaissant une erreur et affirmant avoir corrigé le problème. « Nous avons corrigé un bug qui a conduit certains utilisateurs à voir du contenu qui n’aurait pas dû être recommandé. Nous nous excusons pour cette erreur », a déclaré un porte-parole du groupe. Toutefois, Meta n’a fourni aucune précision sur l’origine exacte de ce « bug » ni sur la manière dont ces vidéos se sont retrouvées massivement diffusées. L’hypothèse d’une faille de l’algorithme reste donc prégnante.

Un incident révélateur des limites de la modération

Cette erreur survient dans un contexte de changements de politique de modération chez Meta. En janvier dernier, l’entreprise a annoncé un assouplissement de ses règles de modération pour favoriser une « vraie liberté d’expression », une initiative largement vue comme un geste pour réparer ses relations avec Donald Trump. Selon CNBC, cette réforme inclut un changement de priorité dans la modération des contenus, l’automatisation se concentrant désormais sur les violations graves (terrorisme, exploitation sexuelle d’enfants, fraudes), tandis que les infractions de moindre gravité sont laissées à l’appréciation des utilisateurs pour être signalées.

Cet épisode met en évidence les difficultés persistantes de Meta à assurer une modération efficace sur ses plateformes. Instagram, comme Facebook avant lui, se repose en grande partie sur l’intelligence artificielle pour détecter les contenus inappropriés. Cependant, ces systèmes montrent encore de nombreuses limites, notamment dans la capacité à réagir rapidement aux dérives, comme l’explique le média Reuters.

De plus, la vague de licenciements massifs chez Meta ces dernières années a considérablement réduit les effectifs chargés de la sécurité et de la modération, selon la CNBC. En 2022 et 2023, l’entreprise a supprimé 21.000 postes, affectant directement ses équipes d’intégrité et de confiance. Une situation qui pourrait expliquer pourquoi des contenus aussi choquants ont pu se répandre sans être interceptés.

Un avertissement pour l’avenir ?

Si Meta assure que tout est revenu à la normale, de nombreux utilisateurs restent méfiants. Cet incident relance le débat sur la responsabilité des plateformes et la capacité des algorithmes à assurer une modération efficace. Jusqu’où peut-on déléguer cette tâche à l’intelligence artificielle ? Une question cruciale alors que les réseaux sociaux jouent un rôle central dans l’accès à l’information et la protection des utilisateurs, notamment les plus jeunes.