Les collections

YouTube prévoit de donner aux utilisateurs plus de contrôle sur son algorithme controversé

YouTube prévoit de donner aux utilisateurs plus de contrôle sur son algorithme controversé

En réponse aux récentes critiques de son algorithme de suggestion, YouTube prévoit d'introduire plusieurs changements qui donneront aux utilisateurs plus de contrôle sur les vidéos et les chaînes suggérées par YouTube en fonction de l'historique d'un utilisateur.

YouTube donne aux utilisateurs des outils pour se contrôler eux-mêmes grâce à un algorithme de suggestion

Dans un article sur le blog officiel de la société, YouTube prévoit d'introduire une série de changements dans son algorithme qui génère des suggestions de contenu pour l'utilisateur en fonction de son historique et de ce que les autres téléspectateurs regardent.

CONNEXES: UN MÉDECIN RÉVÈLE UN CONTENU DANGEREUX DANS LES VIDÉOS YOUTUBE KIDS

"Nous voulons aider les téléspectateurs à trouver de nouveaux intérêts et passions - comme un nouvel artiste préféré, un nouveau créateur qu'ils peuvent suivre ou simplement les meilleures recettes culinaires", a déclaré la société. "Mais il y a un véritable expert dans ce que vous voulez regarder: vous. Une chose que nous avons constamment entendu de votre part est que vous voulez plus de contrôle sur les vidéos qui apparaissent sur votre page d'accueil et dans les suggestions Up Next. Nous faisons donc plus pour vous mettre dans le siège du conducteur. "

Les trois changements majeurs décrits par la société incluent la création d'une nouvelle façon d'explorer le contenu suggéré de la page d'accueil qui, en théorie, devrait diriger les utilisateurs vers un contenu plus approprié, la possibilité de supprimer les suggestions des chaînes que vous ne souhaitez pas regarder, et d'informer les utilisateurs pourquoi une vidéo ou une chaîne a été suggérée à l'utilisateur en premier lieu.

Bien que ces changements en valent certainement la peine, ils ne font pas grand-chose pour changer fondamentalement la nature de l'algorithme lui-même, qui continuera à produire des résultats très problématiques.

Comme Gizmodosouligne que cet algorithme a eu pour effet pernicieux de recommander des vidéos personnelles mettant en scène des enfants aux pédophiles, car d'autres pédophiles continuent de cliquer sur des vidéos d'enfants. Il n'y a pas de `` sujet '' intégré pour ce genre de chose - du moins nous devrions vraiment, vraiment espérer que non - mais l'algorithme de YouTube crée automatiquement des profils de spectateurs et établit des liens étranges entre ce que quelqu'un regarde et ce que quelqu'un d'autre qui a un profil de visualisation similaire regarde.

Il recommande ensuite ces vidéos à l'autre spectateur en supposant que le spectateur aimerait également regarder ces vidéos. Dans le cas des pédophiles, cette hypothèse est correcte et c'est précisément ce qui la rend si incroyablement problématique. Les changements annoncés aujourd'hui ne font pas grand-chose pour résoudre ce problème car il s'agit d'un problème avec l'algorithme lui-même.

Ce problème s'étend également à l'autre problème majeur de YouTube; son rôle dans la radicalisation des téléspectateurs en marge de dangereux mouvements politiques et idéologiques en suggérant des vidéos similaires à celles que quelqu'un regarde. Si ces vidéos sont à l'extrême extrémité du spectre «similaire», cliquer sur cette vidéo produit un nouvel ensemble de recommandations avec cette ancienne valeur aberrante comme centre du spectre.

Comme une fenêtre numérique Overton, de plus en plus de contenu extrême devient ce que l'algorithme de YouTube utilise comme mesure de base, produisant un contenu encore plus extrême sur les bords. Cliquez sur ces vidéos et le processus devient un terrier de lapin qui peut rapidement conduire aux nazis, aux suprémacistes blancs et à d'autres groupes haineux qui ont été au cœur d'une multitude d'attaques récentes visant des mosquées, des synagogues, des femmes et la communauté LGBTQ.

Le problème avec les changements annoncés par YouTube est qu'il laisse l'algorithme en place, ce qui conduit à des résultats problématiques et même dangereux et donne à la place à l'utilisateur les outils dont il a besoin pour se contrôler, plutôt que de faire une véritable tentative de contrôler l'algorithme. Si les utilisateurs étaient capables de le faire, cependant, nous ne serions pas dans la situation dans laquelle nous nous trouvons en premier lieu. Ce problème n'est pas limité uniquement à YouTube, puisque Facebook, Twitter et d'autres fonctionnent à peu près de la même manière et n'ont pas tous réussi à contrôler adéquatement leurs plates-formes.


Voir la vidéo: L Fromont, A van Waeyenberge: Stratégies des plateformes en Europe (Septembre 2021).