Renouer le dialogue social, reconstruire la démocratie et protéger notre environnement : par-delà les réseaux sociaux

Fév 22, 2022 | Climat et démocratie, Climat

Corentin Gentil

Élève en M2 de mathématiques de la modélisation et équations aux dérivées partielles à l'Ecole normale supérieure. Intéressé par la physique du climat.
L’émergence de “bulles de filtres” au sein des réseaux sociaux est un phénomène auquel nous sommes tou.tes sujet.tes : cela concerne les suggestions vidéos Youtube, le fil d’actualité LinkedIn, Twitter ou Facebook, etc… qui dépendent très fortement du contenu avec lequel on interagit (like, commentaire, partage), et qui nous placent dans une bulle dans laquelle le monde extérieur que l’on perçoit est filtré par un algorithme.

J’ai eu envie d’écrire cet article à la suite du départ du Relais Jeunes dimanche 20 février. Le Relais Jeunes est un projet qui a pour but de renouer avec le dialogue citoyen dans toute la France, pour faire face à la triple crise sociale, environnementale et démocratique. Lors du départ, Paloma Moritz, Flore Vasseur, Matthieu Sanchez et Camille Étienne, qui parrainent tou.tes les quatre ce projet, ont prononcé des discours qui, il m’a semblé, mettaient en avant le besoin de recréer du dialogue, de parler, de se poser et de ne plus être derrière un écran à commenter des publications. C’est à la suite de ces discours et du départ du Relais Jeunes que j’ai voulu aborder dans cet article l’effet des réseaux sociaux sur la démocratie, les liens sociaux et les opinions concernant l’environnement.

Les réseaux sociaux comme vecteurs volontaires et méthodiques de fake news, de discours d’incitations à la haine, etc… : le cas de Facebook

Cette partie reprend de nombreux éléments développés dans une vidéo de ScienceForAll sur les FacebookFiles

En 2017, Facebook a connu une grande baisse de popularité qui a conduit la plateforme à changer son algorithme, au nom de valeurs morales. En effet, le but du nouvel algorithme était de rendre le temps passé sur le réseau social de meilleure qualité et les interactions entre les utilisateur.rices plus profondes et significatives, selon Facebook.

En réalité, c’est tout le contraire qui s’est passé, comme l’explique Frances Haugen, lanceuse d’alerte et ancienne membre de l’équipe de Facebook chargée de lutter contre la désinformation. Elle affirme en effet que l’algorithme ne sert pas à améliorer les interactions mais au contraire à les envenimer : « Mais ses propres recherches [à Facebook] montrent que […] c’est plus facile d’inspirer les gens [à commenter, réagir à un post] par la colère que par les autres émotions ». De plus, « Facebook s’est rendu compte que s’il changeait son algorithme pour être plus sûr, les gens y passeraient moins de temps […] et cela rapporterait moins d’argent. ». Ainsi, l’algorithme de Facebook favorise sciemment « les contenus haineux, diviseurs et polarisants ». Dans les documents révélés par Frances Haugen, on apprend notamment qu’une réaction à un post avec l’émoji “Colère” contribue à donner autant de visibilité au post que 5 réactions “Like”. Facebook a donc décidé de ne pas rendre son algorithme plus sûr pour des raisons de profits. 

Aussi, Facebook choisit volontairement de fermer les yeux sur des sujets d’utilité publique, comme la désinformation, le trafic d’humains ou l’incitation à la haine. D’une part, les utilisateur.rices concernés, dont la visibilité est importante, représentent une source de bénéfices pour Facebook, qui refuse de prendre des mesures pour y faire face de façon systémique. D’autre part, Facebook accorde aussi des passe-droits via un système de “CrossCheck” qui définit une liste de VIP dont les contenus ne peuvent pas être directement supprimés par les employés de Facebook. C’était notamment le cas de Neymar qui a révélé les images nues d’une personne qui l’accusait d’agression sexuelle dans une vidéo, vidéo que les employés n’ont pas pu censurer immédiatement et qui a donc été vue plus de 50 millions de fois. La modération du contenu par Facebook est donc restreinte vis-à-vis des vidéos partagées par les comptes les plus influents et financièrement rentables. Facebook n’a reculé que lorsqu’Apple a menacé le groupe de retirer leurs applications de l’AppStore en apprenant que du trafic d’êtres humains avait lieu sur Facebook. L’entreprise a donc supprimé plus de 300 000 posts avec du contenu interdit sur la plateforme. Une décision motivée bien plus par l’appât du gain que par un sens éthique. 

Si Facebook, ou n’importe quel autre réseau social, choisit d’opter pour un algorithme qui met en avant des publications clivantes, il semble raisonnable de penser que la communauté de ce réseau social va se diviser. C’est exactement ce que l’on observe.

La fragmentation de la société amplifiée par ce fonctionnement : un danger pour la démocratie

On entend de plus en plus que “la société va mal” et que le dialogue est en train de disparaître. L’utilisation massive d’intelligence artificielle et d’algorithmes évolués pour augmenter le temps passé par les utilisateur.rices sur les réseaux sociaux n’y est pas pour rien. En effet, ces algorithmes n’ont qu’un but financier et chercheront à attirer les utilisateur.rices, peu importe que cela rende les réseaux sociaux plus addictifs, plus divisants, plus violents.

Les réseaux sociaux favorisent l’émergence de Filter Bubbles (bulles de filtres) qui traduisent l’immersion d’une personne dans une maille du réseau social qui correspond à ses opinions politiques, à son idéologie. En effet, une personne va voir passer des posts qui correspondent surtout à ses idées. Dans cet article de Bergstrom et Bak-Coleman, paru dans Nature, on peut lire que « les Filter Bubbles renforcent les opinions politiques, vont jusqu’à les rendre encore plus extrêmes, et conduisent à une polarisation politique ». L’interaction entre différentes Filter Bubbles se fait alors dans les posts mis en avant artificiellement par Facebook, notamment avec la plus-value accordée aux émojis “colère”, et va mener à des discussions venimeuses qui se traduisent souvent par des propos insultants (Bon Pote en fait état dans cet article).

L’article mentionne aussi l’existence de “zealots” (fanatiques) qui peuvent biaiser la perception de l’opinion majoritaire au sein des Filter Bubbles, pour qu’un groupe minoritaire paraisse majoritaire. Pour en savoir plus, vous pouvez lire cet article.

L’état actuel du débat public sur les réseaux sociaux, la propagation de Fake News, qui font plus de buzz que les vraies nouvelles, sont une réelle menace pour la démocratie. L’attaque du Capitole le 6 janvier 2021 aux États-Unis après que Donald Trump (probablement appartenant au système de CrossCheck) a affirmé que l’élection avait été truquée l’illustre parfaitement. Cet événement regroupe tout ce qui est nocif autour des réseaux sociaux : incitation à la haine (plusieurs morts), fake news (élection truquée), Filter Bubbles (les supporters inconditionnels de Donald Trump), le système de CrossCheck, la polarisation, etc… Il ne fait aucun doute que la démocratie est grandement menacée par le fonctionnement actuel des réseaux sociaux. 

Une autre menace qui plane sur la démocratie est la crise environnementale actuelle. Les chiffres sont alarmants, pour ne pas dire catastrophiques, mais une grande partie de la population continue d’être dans le déni ou l’inaction.

La désinformation liée au changement climatique et plus généralement à l’écologie : une illustration de cette tendance sociale

Selon l’Atlas de l’Anthropocène, de Gemenne et Rankovic, il y a en 2009 environ 20% de climato-sceptiques en France et 35% aux États-Unis. 

En 2020, ces chiffres sont… les mêmes !! Pourtant, l’étude du changement climatique est l’un des domaines scientifiques qui a connu le plus fort progrès durant cette dernière décennie, et les scientifiques spécialistes du sujet sont aujourd’hui unanimes quant à la nature anthropique du changement climatique. Cette proportion de la population qui doute est en grande partie imputable à l’explosion des fake news, notamment via les réseaux sociaux.

Le phénomène de Filter Bubbles s’inscrit parfaitement dans ce mouvement de climato-sceptiques. Les Filter Bubbles constituent le terrain idéal de propagation des Fake News au sein d’une communauté qui partage une opinion politique ou une idéologie. Ces mailles des réseaux sociaux sont donc imperméables à toutes les avancées scientifiques et ne voient que les informations (peu importe leur véracité) qui vont dans le sens de leur opinion. 

En parallèle, les réseaux sociaux ont porté la voix d’une nouvelle catégorie de personnes, qui croient que la technologie permettra de résoudre tous les soucis. Là aussi, ces personnes se regroupent dans des Filter Bubbles qui sont abreuvées de faits, partiels, déguisés, qui vont dans leur sens. C’est dans ce cas un festival de greenwashing, auquel un nombre incalculable de personnalités politiques s’adonnent. On peut mentionner par exemple le ministre des Transports français, Jean-Baptiste Djebbari, qui promeut l’avion électrique comme solution, alors que ce n’est clairement pas implémentable à grande échelle.

Pour comprendre la solidité des Filter Bubbles qui répandent le discours de l’inaction climatique, on peut s’intéresser aux différents discours qui existent, et qui sont relayés en chœur dans ces Filter Bubbles. Un article publié par Cambridge University Press fait état de 12 discours, tous fondés sur un argument contestable, qui poussent à ne pas prendre de mesure en faveur de l’action climatique. Une Filter Bubble inondée de ce type de discours devient donc complètement étanche et opaque à la réalité de l’urgence climatique.

Le fonctionnement des réseaux sociaux n’est pas uniquement problématique car il fait émerger ces îlots (personnes qui croient que la technologie et les entreprises nous sauveront, climato-sceptiques, etc…). D’une part, clamer haut et fort que l’on a trouvé une solution rapporte (avec le fonctionnement actuel des réseaux sociaux) bien plus de visibilité que de démontrer méthodiquement que cette méthode n’est pas viable ni implémentable. 

D’autre part, il faut rappeler que les problèmes environnementaux sont culpabilisants, voire démoralisants. Nous sommes responsables du changement climatique, il n’a rien de naturel, il risque de causer de très, très gros dégâts et c’est notre mode de vie qui en est la cause. S’enfermer dans une bulle qui nous fait croire aux solutions miracles permet alors de diminuer sa culpabilité tout en maintenant son mode de vie (surconsommation, utilisation intensive de la voiture et l’avion, alimentation carnée non modérée, etc…). Comme les réseaux sociaux se veulent attractifs, et ne veulent pas que les utilisateur.rices les fuient, ils ont tout intérêt à tolérer (voire favoriser) ce genre de discours. 

Conclusion

Pour conclure, j’aimerais rappeler que tou.tes les utilisateur.rices de réseaux sociaux appartiennent à une Filter Bubble. Il faut en avoir conscience, nous voyons majoritairement, sur les réseaux sociaux, des faits qui corroborent notre opinion.

Face à tous ces problèmes soulevés dans l’article, je voudrais saluer l’initiative du Relais Jeunes, qui va tenter de renouer avec le dialogue entre citoyen.nes, loin des réseaux sociaux, avec un échange vivant plutôt que des tweets et des commentaires sous des posts.

Pour aller plus loin

  • Le Relais Jeunes : https://lerelaisjeunes.fr/
  • L’interview de Frances Haugen : https://www.youtube.com/watch?v=_Lx5VmAdZSI
  • La vidéo de ScienceForAll sur Facebook : https://www.youtube.com/watch?v=sAjm3-IaRtI&t=1522s
  • Les articles de Nature sur les Filter Bubbles : https://www.nature.com/articles/d41586-019-02562-z & https://www.nature.com/articles/s41586-019-1507-6

À propos de JAC

Nous sommes des jeunes engagés à donner les clés à chacun pour devenir acteur, à son échelle, de la transition.

A lire aussi

Nos derniers articles dans la même catégorie.