Vincent Flibustier - Formations en Education aux médias - Formations Fake News

CAMIONS ! Les bulles de filtre et le trou de lapin (Rabbit Hole) illustrés par Facebook

Au delà du fait que cela me fait rigoler, c’est vraiment un élément très important de ce qu’on reproche à Facebook concernant son rôle dans la diffusion de fausses informations et de théories complotistes.

Pourquoi ?
👉Ici, cet ami reçoit cette publication suggérée « pour lui » par Facebook parce qu’il s’est intéressé à mes publications sur les camionneurs canadiens. 🚛🇨🇦
Facebook, comme tous les réseaux sociaux, veut vous garder un maximum de temps sur le réseau social (pour vous montrer de la pub💰) et fatalement il va essayer de proposer du nouveau contenu qui « fait le buzz en ce moment » en rapport avec vos centres d’intérêt.

Et une fausse info est toujours plus partagée qu’une vraie info pour plusieurs raisons:

– Parce qu’une vraie info est partagée par des tonnes de médias « traditionnels » et donc pour un même buzz « qui vaut 1 million de likes », les interactions sont distillées entre des tonnes de pages . Alors qu’une fausse info, mettons que j’ai inventé pour Nordpresse mais qui « vaut 1 million de likes », vu que je suis le seul à la diffuser, je vais générer le million de likes tout seul et Facebook va donc se dire « Ca c’est du contenu super intéressant et original ! »

– Parce que les gens qui voient passer des trucs qu’ils pensent « censurés par les médias traditionnels » vont les partager en masse. Le taux d’engagement, qu’on calcule en divisant les interactions (like, commentaires, partages) par l’audience de base du compte/page est beaucoup plus élevé chez les conspis que dans les médias traditionnels.
Il est beaucoup plus élevé aussi + vous avez un public de boomers ou de gens qui partagent 2000 trucs par jour sur leur mur.

– Et bien d’autres raisons.

🚚 Du coup on en arrive à notre recommandation Camions.

Facebook ici n’a même pas seulement regardé les likes, commentaires ou partage de l’ami qui m’envoie ça, mais aussi le temps d’écran de la personne sur un même sujet. Facebook sait que vous avez passé X minutes/jour à regarder des contenus sur tel sujet, même si c’est pas une vidéo mais un truc à lire, une image à regarder. Et même si vous n’avez pas eu l’impression d’interagir et donc de montrer votre intérêt.

Facebook pense donc que mon ami s’intéresse à la révolte des camions au Canada et va donc lui montrer une publication qui fait le buzz sur le sujet.
Et c’est là qu’arrive le Rabbit Hole, le trou de lapin comme dans Alice au Pays des Merveilles.

Parce qu’étant donné ce que nous avons dit plus tôt, Facebook va avoir tendance à nous renvoyer vers des contenus toujours plus faux, toujours plus radicaux, toujours plus bêtes et à enfermer les gens dans quelque chose qui se déconnecte de la réalité. Si c’est le contenu débile/conspirationniste… qui fait du buzz sur le sujet, et bien c’est lui qui va être suggéré.

Qu’est-ce qui va générer le plus de likes « 100 camions bloquent une rue à Ottawa » ou « RECORD DU MONDE DE CAMIONS LA CAVALERIE ARRIVE, SHUT DOWN, REVOLTE MONDIALE » ?

Le Shadowban

Avec la page Nordpresse, j’ai été shadowban il y a longtemps, donc il y a eu un masquage algorithmique de mes contenus, mais avant, la majorité de la visibilité que j’avais, elle ne venait pas de la page Nordpresse en elle même mais des recommandations de Facebook à des utilisateurs qui ne connaissent pas Nordpresse.
« Tu as aimé cet article sur Marine Le Pen en déplacement dans le Var ? Tiens, lis ce truc de Nordpresse sur Marion Maréchal Le Pen qui veut renvoyer les roux en Roumanie »

Et ça peut aussi être « Tu as regardé cette page qui parle l’histoire de la gastronomie française, tiens, regarde ce truc sur Zemmour qui veut interdire les Kebabs pour protéger la gastronomie française et qui a fait 2000 commentaires (même s’il y a 1900 commentaires négatifs, Facebook s’en fout) »
C’est pour cette raison je trouve que le mieux encore dans un réseau social, c’est l’absence de suggestions et de trop forte génération de fil d’actualité sur base des habitudes de l’internaute.

Facebook est le pire pour ça avec Tiktok mais Twitter est également assez friand de la recommandations de contenus extrémistes.
Sur Twitter, il est possible de choisir d’avoir un fil d’actualité qui expose les tweets dans l’ordre chronologique et non de manière totalement algorithmique et c’est plus sain. Déjà ça permet de ne pas revoir 200 fois le même tweet, et en plus ça permet de s’ouvrir à tout un tas de contenus qui ont beaucoup moins de visibilité.
Tout ça, ça s’appelle aussi les bulles de filtre, qui sont créées par nous même en choisissant de regarder tel ou tel truc, mais aussi par les réseaux sociaux qui vont avoir tendance à encourager l’enfermement dans une bulle la plus efficace possible pour que vous restiez le plus longtemps possible sur cette publication.
Du coup, si vous likez ce post, il est possible que prochainement vous receviez des suggestions pour des histoires de camion, ou peut-être des histoires de lapins, allez savoir 😊

Aller plus loin :
EN Français:
https://www.numerama.com/politique/745114-les-revelations-de-frances-haugen-sur-facebook-changeront-elles-le-reseau-social.html

Facebook entraînerait ses utilisateurs dans un puits de désinformation concernant les vaccins

Une nouvelle étude sur la désinformation concernant les vaccins sur Facebook montre que l’algorithme de recommandation de contenu de la plateforme peut conduire les utilisateurs vers des contenus conspirationnistes dangereux, plutôt que de les en éloigner.

https://charliehebdo.fr/2021/07/societe/tiktok-alice-au-pays-des-horreurs/

En Anglais:
https://theweek.com/…/how-the-algorithm-killed-the-jingle

Investigation: How TikTok’s Algorithm Figures Out Your Deepest Desires

The Wall Street Journal created dozens of automated accounts that watched hundreds of thousands of videos to reveal how the social network knows you so well By Wall Street Journal A Wall Street Journal investigation found that TikTok only needs one important piece of information to figure out what you want: the amount of time you linger over a piece of content.