Modération, algorithme, protection des mineurs: on a visité le centre de transparence de Tiktok… pas si transparent que ça

C’est une opération de charme de la dernière chance pour Tiktok. Cette fois-ci, le réseau social joue la carte de la transparence et a invité quelques représentants de la presse française à se rendre à Dublin. C'est là, dans le quartier des docks, que l'application de vidéos courtes a décidé d’établir son centre de transparence, sorte de QG européen. Ou plutôt, sa tentative de montrer patte blanche aux régulateurs.
"Nous investissons plus de 2 milliards de dollars chaque année pour la sécurité de nos utilisateurs", assène le réseau social en guise d'introduction.
Un bâtiment qui se fait discret
Le "Transparency & Accountability Center" (Centre Transparence et Responsabilité), ou TAC pour les intimes, est le quatrième à avoir ouvert il y a un an et demi, après Los Angeles, Washington et Singapour. La version européenne se fait plutôt discrète. Ici, pas de logo de Tiktok sur l’immense tour. Les vidéos devant le bâtiment sont formellement interdites. "Même les visio dans le couloir", nous glisse-t-on. L’adresse du TAC, elle, est introuvable sur internet.
Malgré tous ces mystères, Tiktok l’assure: le centre de transparence permet aux visiteurs d’en apprendre un peu plus sur les rouages de l’application. "Le TAC, c’est la chance de faire une plongée dans le fonctionnement de l’algorithme et notre système de modération", introduit Valiant Richey, directeur mondial de la sensibilisation et des partenariats, confiance et sécurité chez Tiktok.
Les mots sont choisis avec soin. Il faut dire que ces derniers mois, les dossiers brûlants s’accumulent pour le réseau social. Menacée d’interdiction aux États-Unis, l’application chinoise est également scrutée de près en France. A la mi-septembre, la commission d’enquête parlementaire sur Tiktok s’est alarmée des effets "dévastateurs" du réseau social sur la santé mentale des jeunes. La modération est de son côté jugée "insuffisante et négligente"... tout comme les réponses des dirigeants de Tiktok. Face à ce constat, les députés ont proposé, entre autres, d'interdire les réseaux sociaux aux moins de 15 ans.
Alors à Dublin, rien n'est laissé au hasard. Les vidéos de présentation colorées sont légions, le discours bien rodé. "Comme d’autres grandes plateformes, nous misons à la fois sur la modération automatique et humaine", rappelle rapidement Valiant Richey.
Avant d’être publiée sur Tiktok, chaque vidéo est analysée par un filtre. L’outil estime si l’image, le texte ou encore l’audio contreviennent aux règles de la plateforme, selon des centaines de paramètres et en prenant en compte le contexte. Par exemple, si une arme est détectée ou si une personne est nue, la vidéo est supprimée.
600 modérateurs francophones
Au premier trimestre 2025, le réseau social a ainsi supprimé 211 millions de vidéos. 87% d’entre elles ont été enlevées par les systèmes automatiques, le reste est à l’appréciation de l'œil humain.
Au total, l’entreprise emploie 4.600 modérateurs dédiés aux langues européennes, dont 600 pour les contenus francophones dans l’UE. Un chiffre qui ne cesse de décroître. Une tendance qui peut paraître surprenante puisque, selon Adam Stairs, responsable de la sensibilisation et des partenariats: "Les humains sont meilleurs pour analyser le contexte ou les spécificités culturelles". Ils prennent par exemple le relais des systèmes automatiques sur les sujets de haine en ligne.
Tech&Co a pu se mettre dans la peau d’un modérateur quelques minutes. Si une vidéo de deux jeunes filles s’enflammant les doigts est sans aucune doute interdite, le choix à faire pour d’autres vidéos est plus difficile. Manger du miel congelé est-il dangereux pour la santé? Peut-être. Pourtant, le système n’indique pas que la vidéo enfreint les règles.
Certains utilisateurs s’amusent également à tromper la modération en modifiant certains mot-clés pour ne pas être détecté par l’algorithme. Sur Tiktok, "sex" devient "seggs" et mort devient "non-vivant". Autant de signaux qui peuvent induire en erreur les modérateurs, qui n’ont pas toute la journée pour se décider.
Impossible d’ailleurs de savoir combien de vidéos sont examinées par jour par les modérateurs, ni le temps passé sur chaque contenu. "Ça peut durer quelques secondes", admet Tiktok. "C’est difficile de donner un nombre précis de vidéos, il faut trouver le bon équilibre entre efficacité et bien-être. Mais ils ont des pauses", explique Adam Stairs.
Ce système permettrait ainsi à Tiktok de supprimer 99% des contenus avant même qu’ils soient vus. Cette marge d’erreur semble dérisoire. Pourtant 1% des contenus reste une masse considérable… surtout lorsque l’on sait que pas moins de 270 vidéos sont mises en ligne chaque seconde sur la plateforme.
Une plateforme interdite aux moins de 13 ans?
De quoi faire émerger des tendances dévastatrices, comme le #skinnytok. En avril dernier, plusieurs internautes très jeunes s’étaient vu recommander par l’algorithme des contenus faisant la promotion de la maigreur, parfois extrêmes.
Justement, la visite insiste tout particulièrement sur la protection des mineurs, point central des discussions de la commission Titkok à l’Assemblée nationale. Ainsi, une série de restrictions s'applique en fonction de l'âge. Par exemple, les comptes des 13-15 ans sont privés par défaut, les messages privés bloqués, les lives interdits et l'usage limité à 60 minutes par jour. Au-delà, il faut un code parental. Les moins de 18 ans, eux, ne peuvent pas acheter ni recevoir de cadeaux virtuels.
L'application est interdite aux moins de 13 ans. Du moins en théorie puisque les inscriptions s'appuient sur une déclaration de l'usager. L'utilisateur mineur est libre de renseigner une fausse date de naissance. Aucune preuve ne lui sera demandée. En France seulement, les trois quarts des jeunes de moins de 13 ans en 2025, nés après 2012, déclarent utiliser régulièrement des réseaux sociaux, dont Tiktok, selon l'étude Born Social de septembre dernier.
Interrogé sur ce trou dans la raquette, Tiktok botte en touche. L’entreprise rappelle que ses algorithmes "scannent les vidéos mises en ligne par les comptes suspectés d’appartenir à des mineurs et analysent leurs comportements en ligne, comme les likes ou les vidéos visionnées", liste Valiant Richey. Grâce à cette méthode, 21 millions de profils ont été supprimés.
Des efforts contraints par le DSA
Dernier sujet brûlant, l'algorithme, jalousement gardé secret par l'entreprise. Jugé "hautement addictif", le système propose aux internautes les vidéos les plus adaptées à ses goûts pour le retenir au maximum. Un dispositif accusé d'enfermer les internautes dans une "bulle de filtre", c’est-à-dire de proposer uniquement des contenus similaires les uns des autres. Le phénomène peut être particulièrement dangereux lorsqu'il s'agit de vidéos liées au suicide, à l'automutilation ou encore à des discours haineux.
"Si une 'bulle de filtre' est repérée par nos équipes, nous veillons à ce que de nouvelles vidéos soient injectées dans le fil pour disperser les contenus", assure Adam Stairs, qui n'oublie pas de lister les différentes méthodes à la disposition de l'utilisateur pour customiser l’application. "Les internautes peuvent remettre à zéro les recommandations ou filtrer certains mots ou hashtags."
Rien de très révolutionnaire, puisque les très grandes plateformes en ligne, dont Tiktok fait partie, sont obligées, depuis le règlement sur les services numériques européens (DSA), de lutter activement contre les bulles de filtre.
Un règlement a priori plus ou moins respecté par la plateforme. En effet, l'application de vidéos courtes est sous le coup d’une enquête de la Commission européenne pour non-respect du DSA. Les inquiétudes du gendarme européen du numérique portent en particulier sur "la protection des mineurs", "l'accès aux données pour les chercheurs" ainsi que les "risques liés à la conception addictive" de la plateforme et "aux contenus préjudiciables". En cas de manquement, l'entreprise pourrait se voir infliger une amende allant jusqu'à 6% de son chiffre d'affaires annuel mondial.
La plateforme tente donc de prendre les devants. Des serveurs destinés à héberger une partie de l'algorithme de recommandation sont en cours de construction au TAC. "Ils seront accessibles aux organisations et aux gouvernements que nous approuvons", glisse Valiant Richey. Un effort certain, qui touche un point stratégique, particulièrement opaque. Le "code" derrière Tiktok ne sera évidemment pas accessible à tout un chacun, le public est donc logiquement limité.
Mais derrière cette avancée Tiktok fait parfois montre d'une certaine réticence. Au sortir du Centre Transparence et Responsabilité, on se souvient que la commission Tiktok de l'Assemblée nationale avait été invitée à le visiter. A l'époque déjà, le réseau social chinois voulait prouver sa bonne foi. Sauf que les élus français avaient décliné l'offre, pourquoi visiter le TAC, après qu'on leur a refusé l'accès à un vrai centre de modération au Portugal? A croire que Tiktok a la transparence à géométrie variable, sous contrôle, en demi-mesure, quand ça l'arrange. Cette transparence là a un autre nom: opacité.