Suicide en direct: l'application TikTok critiquée pour avoir géré son image au lieu de prévenir la police

Craignant un bad buzz, TikTok en a créé un autre, bien plus ravageur. Le 21 février 2019, un Brésilien de 19 ans s’est suicidé en direct sur le réseau social chinois, qui compte 500 millions d'utilisateurs. Il était 15h23 et 280 personnes y ont assisté derrière leur écran. La diffusion du corps de l’adolescent a continué pendant une heure et demie, raconte The Intercept, qui tient l'information d'un ancien employé de l'entreprise. Quinze signalements à la plateforme ont été effectués.
À 17 heures, TikTok prend connaissance de l’accident. Pour s’assurer que l’histoire ne fasse pas les gros titres, TikTok prend trois heures pour établir sa ligne de défense avec un communiqué rejetant toute responsabilité concernant d’éventuelles défaillances de la modération. Le texte ne sera finalement jamais diffusé. Ce n'est qu'après la rédaction de ce document que l'entreprise se décide à alerter la police.
La modération des réseaux sociaux vivement critiquée
Ce n’est malheureusement pas le premier cas de suicide diffusé en direct sur les réseaux sociaux. Facebook, Instagram, Twitter ont déjà été confrontés à des cas similaires et à chaque fois, leur capacité à protéger leurs utilisateurs a été remise en cause. L’année dernière, le suicide d’une Anglaise de 14 ans a provoqué un tollé. Elle s’est donnée la mort après avoir regardé des vidéos qui expliquaient comme se suicider.
"Je vous invite à accepter qu'il y ait des problèmes et à vous engager à les résoudre - ou à admettre publiquement que vous n'en êtes pas capable", avait écrit Anne Longfield, commissaire britannique à l’enfance, dans une lettre adressée aux plateformes.
Pour détecter ces contenus, les réseaux sociaux se basent sur des algorithmes et sur des modérateurs humains. Les contenus leur sont remontés par le logiciel ou par les internautes qui font des signalements.