L'algorithme de YouTube accusé d'être le principal relais de vidéos nuisibles

YouTube a retiré plus de 8 millions de vidéos entre octobre et décembre 2017 - Sous licence Creative Commons CC0
Avec 700 millions d'heures visionnées chaque heure dans le monde, YouTube n'a plus à prouver son influence. La plateforme, qui fonctionne au moyen d'un algorithme de recommandation, peut entraîner ses utilisateurs vers des contenus parfois hors de propos, voire dérangeants.
Pour appeler YouTube à une meilleure modération, Mozilla, organisme à l'origine du navigateur Firefox, a lancé en 2020 une extension nommée RegretsReporter. Il s'agit d'un outil collaboratif qui permet de signaler les contenus YouTube qui sont considérées comme nuisibles, c'est à dire que les internautes ont jugé dérangeants.
Ce 8 juillet 2021, Mozilla a publié le rapport résultant de cette extension: 71% des contenus jugés peu recommandables proviennent directement de l'algorithme de YouTube. En 2018, la plateforme estimait que 70% du temps de visionnage découlait de ces recommandations automatiques.
Mettre fin aux cercles vicieux
L'étude a été portée par 37.380 volontaires de 190 pays. 1.662 d'entre eux ont reporté au moins une vidéo, pour un total de 3.362 vidéos, entre juillet 2020 et mai 2021. Ces volontaires ont signalé les vidéos en question, mais également détaillé les contenus qu'ils avaient visionnés avant celles-ci.
Les participants ont également pu soumettre des commentaires pour justifier le signalement d'une vidéo. Une façon, pour Mozilla, de mieux comprendre la façon dont sont établies les recommandations. Par ailleurs, le rapport évoque "une volonté de ne pas être précis sur le terme 'nuisible', pour que chaque volontaire puisse apporter sa notion".
Selon le rapport, les vidéos signalées les plus fréquemment relèvent de la désinformation, du contenu violent ou de l'appel à la haine. De surcroît, l'étude révèle que "dans 43.3% des cas, les recommandations nuisibles n'ont rien à voir avec le parcours effectué par l'internaute sur YouTube."
Parmi les exemples cités, une personne ayant cherché des vidéos au sujet de militaires américains a reçu comme suggestion une vidéo intitulée "Un homme humilie une féministe dans cette vidéo virale".
Mozilla met également l'accent sur les "cercles vicieux" engendrés par des contenus choquants. L'exemple est pris d'une fillette de 10 ans, à la recherche de vidéos de danse et qui est tombée sur des contenus faisant la promotion de régimes extrêmes.
La France parmi les plus touchés
L'étude a révélé par ailleurs que "les non-anglophones étaient les plus touchés. Le taux de contenus regrettables est 60% plus élevé dans les pays dont l'anglais n'est pas la langue principale." Les trois pays les plus touchés le Brésil, l'Allemagne, puis la France. Dans ces pays, le nombre de vidéos signalées est de 17,5 pour 10.000.
En conclusion du rapport, Mozilla admet que, si l'étude a permis de comprendre "ce qu'il se passe", aucune clarification sur les raisons de ces recommandations n'a pu être apportée.
Nous travaillons constamment pour améliorer l'expérience sur YouTube et avons procédé à plus de trente modifications l'an dernier dans le but de réduire les recommandations de contenus néfastes", a déclaré un porte-parole de YouTube à BFMTV.
Le problème vient de l'algorithme
En avril 2021, la plateforme assurait que "les vidéos problématiques représentaient moins de 0.2% des visionnages". Un chiffre en chute de 70% par rapport à 2017. Or, si ce chiffre est en adéquation avec les résultats de l'étude présentée par Mozilla (qui évoque moins de 20 vidéos nuisibles pour 10 000), cette dernière montre également que les vidéos nuisibles recommandées ont un potentiel de viralité plus important: elles cumulent chaque jour, 71.1% de vues en plus que les vidéos recherchées manuellement par les internautes.
Le problème réside donc bien dans le fonctionnement de l'algorithme, aux yeux de Mozilla, qui encourage la plateforme de vidéo à être plus transparente sur ce point.
"Les recherches effectuées par Mozilla et un grand nombre d'experts démontrent que l'algorithme de YouTube peut affecter les personnes de façon significative. Youtube a prouvé qu'il utilisait la mauvaise approche pour prendre cette responsabilité. Nous ne nous approcherons de la bonne qu'avec plus d'ouverture, de transparence, de responsabilité et d'humilité", conclue le rapport.
D'autres recherches concernant la radicalisation des utilisateurs de YouTube mettent en avant la multiplication de vidéos problématiques. Début 2020, des chercheurs avaient estimé que le phénomène était avant tout lié à la profusion de contenus extrémistes sur la plateforme.