algorithme-de-youtube-recommande-des-vidéos-qui-violent-ses-politiques

L’algorithme de YouTube recommande des vidéos qui violent les politiques de l’entreprise en matière de contenu inapproprié, selon une étude de crowdsourced.

Les vidéos sur Youtube

L’entreprise à but non lucratif Mozilla a demandé aux utilisateurs de son navigateur web Firefox d’installer une extension appelée RegretsReporter, qui suivait les vidéos YouTube qu’ils regardaient, et leur demandait s’ils regrettaient d’avoir regardé chaque vidéo.

Entre juillet 2020 et mai 2021, 37 380 utilisateurs ont signalé 3362 vidéos qu’ils ont regardées comme étant regrettables – une fraction de 1 % de toutes celles qu’ils ont regardées. C’est au Brésil que le nombre de vidéos signalées comme regrettables était le plus élevé, avec environ 22 vidéos sur 10 000 visionnées.

Les chercheurs ont ensuite regardé les vidéos signalées et les ont comparées aux directives de YouTube en matière de contenu. Selon les chercheurs de Mozilla, 12,2 % des vidéos signalées ne devraient pas être sur YouTube ou ne devraient pas être recommandées par son algorithme.

Environ un cinquième des vidéos signalées relèveraient de ce que les règles de YouTube classent comme de la désinformation, et 12 % propageraient des informations erronées sur le COVID-19, indiquent les chercheurs. Parmi les autres problèmes signalés dans cette enquête figurent les contenus violents ou graphiques et les discours de haine.

Cela ne serait qu’une partie de l’iceberg

« Certains de nos résultats, s’ils étaient mis à l’échelle de la base d’utilisateurs de YouTube, soulèveraient des questions importantes et seraient vraiment préoccupants », déclare Brandi Geurkink de Mozilla en Allemagne. « Ce que nous avons découvert n’est que la partie émergée de l’iceberg ».

La plupart des vidéos litigieuses ont été proposées aux utilisateurs par l’algorithme de YouTube, qui recommande des vidéos provenant de chaînes qu’un utilisateur ne suit pas nécessairement ou qu’il n’a pas recherchées. Selon les chercheurs de Mozilla, sept rapports de regret sur dix étaient liés à des vidéos recommandées, et celles recommandées par YouTube étaient 40 % plus susceptibles d’être regrettées que les vidéos que les utilisateurs recherchaient eux-mêmes.

Les vidéos en langue non anglaise avaient 60 % plus de chances d’être regrettées, ce qui, selon les chercheurs, pourrait s’expliquer par le fait que les algorithmes de YouTube sont formés sur des vidéos principalement en langue anglaise.

« Cela souligne la nécessité d’adapter les décisions de modération au niveau de chaque pays, et de s’assurer que YouTube dispose de modérateurs experts qui savent ce qui se passe dans chaque pays », explique Savvas Zannettou, de l’Institut Max Planck d’informatique en Allemagne.

Un manque de transparence « inacceptable »

Selon M. Geurkink, le manque de transparence de YouTube concernant son algorithme est « inacceptable », surtout après que des années de recherches aient soulevé des inquiétudes quant à son impact sur la société.

Un porte-parole de YouTube a déclaré : « l’objectif de notre système de recommandation est de mettre en relation les spectateurs avec des contenus qu’ils aiment et, chaque jour, plus de 200 millions de vidéos sont recommandées sur la seule page d’accueil. »

L’entreprise a ajouté qu’elle avait apporté des changements à son système de recommandation au cours de l’année dernière, ce qui a réduit la consultation de « contenu limite » à moins de 1 % de toutes les vidéos.

Source : New Scientist
Crédit photo : Pexels