YouTube : ces témoignages montrent les dangers de l’algorithme de recommandation de vidéos

L’algorithme de recommandation de YouTube est au coeur d’une campagne de Mozilla visant à améliorer sa pertinence – et en réduire les effets pervers. Le fondation cite 28 histoires d’utilisateurs qui sont tombés sur des contenus bizarres, ultra-violents, pornographiques ou dangereux sans que le sujet de ces vidéos n’ait de lien avec leurs centres d’intérêt.

Mozilla vient de lancer un mini-site (en anglais) sur lequel on peut lire 28 histoires d’utilisateurs de YouTube, autour de l’algorithme de recommandation. Autant d’incidents où l’algorithme de recommandations de YouTube leur a montré des vidéos parfois insoutenables montrant par exemple de la violence, du racisme, ou faisant l’apologie de théories conspirationnistes à des utilisateurs – adultes et enfants – qui s’en seraient bien passé.

YouTube : Mozilla veut aider Google à améliorer l’algorithme de recommandation de vidéos

« J’ai commencé à regarder un match de boxe, puis des matches de boxe dans la rue, et puis j’ai fini par tomber sur des vidéos de combats de rue, puis des accidents et de la violence urbaine… j’en suis sorti avec une vision horrible du monde et en me sentant mal, sans que ce soit quelque chose dont j’avais envie », raconte un utilisateur.

Un autre utilisateur raconte lui aussi comment l’algorithme joue la surenchère : « j’ai commencé à chercher des ‘vidéos de fails’ où des gens tombent ou se font un peu mal. YouTube m’a alors proposé une chaine qui montrait des vidéos issues de Dash Cams dans des voitures. Dans un premier temps il y avait des accidents mineurs, mais plus tard ça a évolué vers des voitures qui explosent et qui tombent de ponts – des vidéos dans lesquelles les gens n’ont clairement pas survécu à l’accident. Je me suis alors senti un peu malade, et je n’ai plus jamais recherché ce type de contenus ».

Il y a aussi l’histoire de ce professeur scandalisé par le nombre de vidéos conspirationnistes : « Je regardais des documentaires sérieux sur Apollo 11. Mais l’algorithme de recommandations de YouTube est désormais plein de vidéos sur des théories du complot : 11 septembre, échappée d’Hitler, chercheurs d’alien et propagande anti-américaine ». On trouve sur le site du projet 28 histoires racontant comment YouTube a montré des contenus LGBTphobes, racistes, ou à contenu sexuel.

70 % des vidéos visionnées sur YouTube sont proposées par l’algorithme de recommandations. Or cet algorithme est régulièrement la cible de critiques que ce soit pour sa dimension addictive (on peut passer des heures à se laisser montrer des vidéos recommandées) que pour ses ratés. Le mini-site de Mozilla est ainsi la vitrine d’un projet baptisé #YouTubeRegrets dont le but est de trouver des solutions.

« Ces histoires montrent que l’algorithme donne surtout du poids à l’engagement – il montre du contenu qui garde l’internaute en haleine, que ce contenu soit ou non dangereux », explique Ahsley Boyd, responsable du projet chez Mozilla. Et d’ajouter : « nous pensons que ces témoignages représentent de manière juste le problème plus large de l’algorithme de YouTube : les recommandations qui peuvent agressivement pousser des contenus bizarres ou dangereux. Le fait que nous ne puissions pas étudier ces histoires plus en profondeur – faute d’accès aux données adéquates – renforce l’idée que l’algorithme est opaque et hors de tout contrôle ». 

Le pari de Mozilla, c’est que YouTube et Google ne peuvent plus perfectionner seuls leur algorithme : « nous ne pensons pas qu’il s’agit d’un problème qui puisse être résolu en interne. Il est trop grave et complexe. YouTube doit permettre à des chercheurs indépendants de contribuer à la recherche d’une solution », estime Ashley Boyd. La fondation aimerait conduire la plateforme à ouvrir ses données à la communauté des chercheurs, les aider à construire des outils de simulation, et plus largement leur donner plus de marge de manoeuvre plutôt que de les laisser sur la touche.

Lire également : YouTube propose enfin des options pour contrôler les recommandations de vidéos

Qu’en pensez-vous ? Quelle est la recommandation de vidéo la plus étrange que YouTube vous a proposé ? Partagez votre retour dans les commentaires.

Source : The Next Web

Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !
Comment supprimer l’historique YouTube de votre PC ou smartphone ?

YouTube conserve l’historique des vidéos que vous recherchez ou regardez, à la fois pour vous permettre de les retrouver facilement, et pour vous fournir des recommandations personnalisées. Il est possible de supprimer tout ou partie de cet historique dès que…