TikTok : retour sur la vidéo suicide qui a choqué Internet

Photographed by Ryan Williams.
Avertissement : cet article contient des références au suicide qui pourraient choquer certain·es lect·eurs·rices.
Il y a un mois, TikTok a été envahi par une vidéo graphique de Ronnie McNutt, vétéran de 33 ans, qui s'est suicidé. McNutt avait diffusé sa mort sur un live Facebook le 31 août et la vidéo avait depuis trouvé sa place sur d'autres plateformes de réseaux sociaux.
TikTok a particulièrement eu du mal à gérer la suppression des images. Dans une déclaration, TikTok avait indiqué à Refinery29 que ses systèmes et ses équipes de modération "ont détecté et supprimé ces séquences" ainsi que "banni les comptes qui tentent à plusieurs reprises de publier ces vidéos". On pouvait encore voir une semaine après le drame des mises en garde contre des extraits qui subsistaient en ligne.
Publicité
La semaine dernière, de nouveaux rebondissements sur l'affaire ont eu lieu. En effet, d'après TikTok, il s'agirait d'une "attaque coordonnée" : "Au fil de notre enquête, nous avons découvert que des groupes opérant dans le Dark web ont planifié des raids sur les réseaux sociaux comme TikTok afin de diffuser la vidéo partout sur Internet. Nous avons pu constater qu'un groupe d'utilisateurs a tenté de façon répétée de publier la vidéo sur notre plate-forme", s'est exprimé Theo Bertram, le directeur européen des politiques publiques de TikTok.
C'est dans ces circonstances troublantes que l'on remarque que l'utilisation même de TikTok trahit son utilisat·eur·rice : lorsque vous faites défiler votre fil d'actualité ou votre page "Pour toi", vous glissez pour passer d'une vidéo à une autre, chaque vidéo démarrant automatiquement dès qu'elle apparaît à l'écran. Cela signifie que lorsque la vidéo de McNutt a commencé à apparaître sur les pages "Pour toi", les gens étaient souvent à la moitié de la visualisation de la vidéo avant de réaliser ce qu'il se passer et pouvoir swiper. Les TikTokers se sont avertis mutuellement de faire attention aux vidéos qui montrent un homme barbu assis à un bureau et ont mis en garde contre le contenu graphique qui pourrait suivre. Certains montages sournois de vidéo sont faits pour vous inciter à regarder le contenu graphique en vous montrant d'abord du contenu inoffensif comme de mignons animaux, qui est ensuite coupé pour montrer des vidéos de suicide.
Spill Sesh de la chaîne "Tea Spill" de YouTube est l'un des nombreux utilisateurs qui avait ouvertement déclaré qu'ils éviteraient TikTok jusqu'à ce que la vidéo soit éradiquée de la plateforme. Sur TikTok, le hashtag #ronniemcnutt a 26,5 millions de vues et est apparu comme un espace improvisé permettant aux gens sur TikTok de s'avertir les uns les autres et de traiter de la vidéo de déclenchement.
Publicité
Sous le hashtag, vous trouverez des TikToks de personnes réagissant à la viralité de la vidéo, se demandant pourquoi certain·es ont diffusé la vidéo sur d'autres plateformes. Vous trouverez également des TikToks qui visent à humaniser McNutt en montrant des captures d'écran du statut de sa mère sur Facebook (à savoir : "J'espère que tous ceux d'entre vous qui prennent leur pied en regardant la vidéo de mon fils en train de mettre fin à ses jours pourriront en ENFER !!") ainsi que des photos de lui tirées de ses profils sur les réseaux sociaux.
Mais tout cela semble faire partie de la deuxième vague de réactions à cette vidéo, alors que la première vague avait transformé la mort de McNutt en des mèmes. TikTok a depuis supprimé les vidéos qui rendent la mort de McNutt superficielle (parce qu'elles ne respectent pas les directives de la communauté), mais une foule de gens réagissent à la façon dont tant d'entre eux en ont fait une blague. Certaines personnes ont fait de lui leur photo de profil, d'autres ont reposté la vidéo comme blague cruelle, d'autres encore ont commenté la réaction des gens en se vantant de ne pas en être affectés. La mort d'un homme réel semble avoir eu un malheureux contrecoup sur TikTok, ce qui peut nous questionner encore une fois sur les limites des réseaux sociaux. C'est pourquoi, "Theo Bertram a déclaré que TikTok avait écrit à neuf autres grandes plates-formes (Facebook, Instagram, Google, YouTube, Twitter, Twitch, Snapchat, Pinterest et Reddit) afin qu'elles coopèrent pour identifier rapidement les images ultra-violentes" relate Le Monde.
Publicité
La propagation virale du "trauma porn" - tout type de support qui exploite les moments traumatisants de l'adversité pour générer du buzz, de la notoriété ou de l'attention sur les réseaux sociaux - n'est pas unique à TikTok. Elle n'est même pas propre à Internet. Il s'agit cependant d'un moyen improductif et souvent nuisible de traiter les traumatismes.
Si vous pensez au suicide, veuillez contacter la ligne téléphonique de Suicide Ecoute au 01 45 39 40 00 pour en parler.

More from Tech