Bulle de filtres, « fake news » et chambre d’écho : un nouveau rapport à l’information
« À l’heure du numérique, il n’a jamais été aussi facile de publier des informations mensongères qui sont immédiatement reprises et passent pour des vérités. (…) Au lieu de renforcer les liens sociaux, d’informer ou de cultiver l’idée qu’informer est un devoir civique et une nécessité démocratique, ce système crée des communautés clivées qui diffusent en un clic des mensonges les confortant dans leurs opinions et creusant le fossé avec ceux qui ne les partagent pas. » (Viner, 2016)
Le Web est né d’un idéalisme libertaire qui espérait, en dépassant les frontières, offrir un monde libre et de partage par le biais d’un clavier et d’un écran. Pourtant, cette utopie ne s’est pas réalisée et nous tendons même de plus en plus à nous en éloigner. À partir des années 2000, alors que les moteurs de recherches et les réseaux sociaux se développent avec rapidité, c’est une nouvelle société qui apparaît, avec ses propres règles, ses propres possibilités, son propre fonctionnement. Ainsi, si Internet a été conçu avec l’ambition de donner aux individus un espace d’expression et de partage de l’information libre, où l’ouverture d’esprit et la rencontre avec l’Autre semblaient se profiler sous le joug d’un idéal quasi anarchiste, la réalité s’est rapidement imposée à l’utopie et le libertarisme tant espéré a été éconduit au profit d’un système qui montre chaque jour ses limites. La centralisation de l’information par Google, Facebook, Twitter, etc. remet en perspective les pratiques sociales liées à l’information. L’étude du Reuters Institute, Digital News Report, faite en 2018, démontre que 45% des américains utilisent les réseaux sociaux comme moyen d’information sur le monde (Newman, 2018). Sur ce réseau social, la gratuité de la plupart des médias, leur nombre croissant et leur accès rapide semble permettre à la population d’accéder autant à un contenu diversifié qu’instructif. Pourtant, cette vision optimiste est aujourd’hui remise en doute.
Les concepts de filter bubble et d’echo chambers, selon lesquels, grâce à nos traces, les algorithmes permettant d’optimiser la recherche d’information de façon personnalisée ainsi que le partage en masse de fake news enfermeraient l’utilisateur dans un rapport à l’information alors limité à ses propres croyances. Dans ce travail, nous verrons comment les algorithmes et les réseaux sociaux sur Internet ont influencé notre relation à l’information, notamment à travers l’exemple de Facebook. Nous discuterons alors de la pertinence du concept de « bulle de filtres » et de « chambre d’écho » en analysant des discours partisans et opposants à leur existence. Deuxièmement, nous verrons comment le chercheur en sciences sociales est mis au défi face aux notions abordées dans ce travail et ainsi qu’il faut qu’il adapte sa méthode tant de récolte que d’analyse des données dans sa pratique d’Internet. Nous conclurons alors sur la place que les concepts abordés tiennent dans l’interdépendance entre technologie et société.
Qu’est-ce que la bulle de filtres ?
En quelques années, notre rapport à l’information a changé. La prolifération des contenus sur les réseaux sociaux a demandé de repenser le champ attentionnel des utilisateurs au milieu de l’abondance concurrentielle de l’information (Citton, 2014). La question qui se pose est alors de comment capter l’attention du sujet qui conduira au fameux clic attendu par l’émetteur de l’information. Comment notre choix se porte-t-il sur une information parmi les autres ? Les algorithmes, en théorie, doivent permettre de justement éviter de noyer l’utilisateur dans le flux en personnalisant celui-ci à son image. Eli Pariser, activiste d’Internet, a inventé le terme de « filter bubble » qu’il définit comme une conséquence du travail des algorithmes, celle-ci serait donc :
« L’état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d’une personnalisation mise en place à son insu. À partir des différentes données collectées sur l’internaute, des algorithmes vont silencieusement sélectionner les contenus qui seront visibles ou non par lui. Le terme de « bulle de filtres » renvoie à l’isolement produit par ce mécanisme : chaque internaute accède à une version différente du web, il reste dans une « bulle » unique et optimisée pour lui. » (Curcio, 2017)

Ainsi, inconsciemment, nous serions jour après jour conforté par nos propres opinions, de moins en moins conscients que celles-ci n’ont en réalité pas la même notoriété que nous leur prêtons. Chaque clic de souris a alors son importance vu qu’il vient participer à établir notre profil d’utilisateur. Amazon, Netflix, Google, etc. seraient ainsi les gardiens de notre confort visuel – en évitant que des images ou opinions contraires à notre éthique, morale ou philosophie ne fasse partie de notre fil d’actualité – mais en parallèle nous enfermeraient dans une prison dorée, celle de nos idées (Pariser, 2011). Le concept d’echo chambers est ici intéressant à mettre en parallèle avec celui de bulle de filtres car il constate un même résultat – une prison idéologique – tout en pointant du doigt une autre problématique que les algorithmes, celle de la répétition de mêmes informations en masse, conduisant à une perte de regard critique. En 1998, un lobbyiste de Philip Morris, invente ce concept qu’il définit en deux points : « First, the same message can reverberate among multiple sources toward the target members […] Second, similar but complementary messages can be repeated by a single source. » (Scruggs, 1998) Alors que dans ce cas, le concept est élaboré dans une stratégie marketing, il a par la suite trouvé écho chez les penseurs du WEB qui, comme Eli Pariser, ont développé un regard critique face aux changements sociaux, liés à l’information, que le numérique amène.
Bulle de filtres, chambre d’écho et Fake News
Selon Katharina Viner, rédactrice en chef du Guardian, le danger des bulles de filtres et de la chambre d’écho sont à mettre en lien avec la problématique des fake news. Le numérique a selon elle bouleversé de façon alarmante notre rapport aux faits et, dès lors, à l’information (Viner, 2016). Viner analyse ainsi, dans son étude « How technology disrupted the truth », le rôle de l’association bulles idéologique/fake news sur la politique des Royaume-Unis. Alors que le premier ministre est accusé de forniquer avec une tête de porc et qu’il doit publier à contrecœur un démentit face à la rage et à la virulence de l’opinion publique, quand bien même, la journaliste ayant lancé la rumeur affirme n’avoir aucune preuve, la communauté des internautes s’est emparée de l’information et l’a partagée massivement. Boullier rappelle, par rapport à ce phénomène que : « Le problème majeur ce ne sont pas les fakes news, mais le rythme. » (Boullier, 2018) Piégé sur le mur de son réseau social où la friandise du sensationnalisme est l’apanage quotidien, le récepteur de l’information n’aura peut-être même pas eu accès à son démenti car il est submergé par la fausse information venant de nombreuses sources avec une rapidité déconcertante ; là nous rejoignons la problématique de la chambre d’écho.
De la même manière Viner analyse l’impact des réseaux sociaux sur le Brexit. Selon elle, ce choix politique a été fait en raison d’un partage massif de fausses informations ainsi que d’une manipulation à travers les réseaux sociaux. Cette théorie rappelle directement le scandale lié à Cambridge Analytica et l’élection de Trump et pose le problème de société suivant : si les faits perdent de leur valeur et que les médias se dispersent parmi les fakes news, les partis politiques se confrontent à une réalité éthiquement difficile pour faire entendre leur opinion. Car pour s’insérer dans les bulles idéologiques, il faut analyser les partis pris et jouer sur l’émotionnel. En proposant donc aux personnes des fausses informations en masse et en laissant celles-ci faire le buzz, la bulle est entretenue.
Oppositions aux critiques faites aux algorithmes de Facebook
Le texte Rethinking Information Diversity in Networks est une critique du concept de la chambre d’écho et de la bulle de filtre qu’Eytan Bakshy, employé de Facebook, a écrit peu après l’intervention d’Eli Pariser. L’étude de Bakshy tend à montrer qu’au lieu d’enfermer idéologiquement les internautes, le partage d’information sur Facebook, au contraire, permet aux internautes une information plus variée que sous le règne des journaux papiers (Bakshy, 2012). L’argument principal de ce document repose sur le fait que les liens forts (familles et amis proches) sont moins nombreux que les liens faibles (amis éloignés, amis d’amis) sur le réseau et qu’ainsi, malgré la tendance à préférer les interactions avec les liens forts qui partagent leur idéologie, les internautes seront confrontés à des opinions éloignées grâce aux liens faibles. Si en soi, l’étude peut être pertinente, elle se heurte rapidement à la problématique des fake news comme nous le verrons plus loin.

Un autre texte vient également contredire les critiques faites à Facebook ; Exposure to ideologically diverse news and opinion on Facebook, écrit par Bakshy, Messing et Adamic. Celui-ci expose une étude menée sur 10,1 millions d’utilisateurs du réseau social et se propose de mesurer le degré d’homophilie des utilisateurs ainsi que de leur accès à des informations variées.

Le résultat de cette étude exprime que les choix individuels ont plus d’impact que les algorithmes sur l’enfermement idéologique (Bakshy, 2015). Si l’idée est intéressante et pose un débat légitime, le problème des études de Bakshy réside dans son lien avec la société Facebook et ainsi la difficulté de voir ses études comme neutre. Se pose également ici le problème de l’accès à l’information qui est ici limitée aux employés de l’entreprise. N’importe quel chercheur ne peut donc pas reproduire l’étude pour la vérifier.
Quoi qu’il en soit les paramétrages algorithmiques existent et, même si l’importance de leur impact sur le monde social reste difficile à définir, ils restent omniprésents dans la construction de l’espace sur lequel navigue l’internaute.
La solution d’Eli Pariser à ce phénomène serait que les organismes ayant créé les algorithmes impliquant le danger de la bulle de filtres incorporent au sein même de leurs algorithmes un facteur de responsabilité civile ou alors sans que celui-ci soit imposé (ce qui poseraient également des problèmes éthiques), il faudrait que les consommateurs puissent paramétrer eux-mêmes leur propre contenu d’information[1] (Pariser, 2011). Malheureusement, Facebook, comme Google, n’a pas pour objectif de rendre ses algorithmes transparents. Dès lors, la pensée de Nietzsche « L’homme qui cherche la connaissance ne doit pas seulement savoir aimer ses ennemis, il doit aussi savoir haïr ses amis » prend dans ce contexte précis tout son sens. L’idée serait alors d’impliquer la responsabilité individuelle de chaque acteur social dans le choix de ses amis mais aussi des groupes qu’il décide de suivre sur le réseau. (Cardon, 2015)
Cette suggestion amène également la question de la responsabilité individuelle telle qu’elle a été abordée par Bashky : les algorithmes sont-ils responsables de l’enfermement idéologiques des individus ou ceux-ci s’enferment-ils eux-mêmes dans leur pratique ? C’est en tout cas la thèse de Dominique Cardon qui explique que : « la bulle c’est nous qui la créons par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook » (Gunthert, 2016). Il nous rappelle ainsi que le concept d’homophilie est au cœur du problème. Cette tendance à rechercher la compagnie de ceux qui nous ressemblent ou nous sont apparentés n’est pas née avec Internet et rappelle également Bourdieu et sa notion d’habitus :
« l’habitus est cette disposition incorporée à travers laquelle la société façonne des choix réguliers et prévisibles, jusque dans les plus petites anfractuosités au quotidien. […] La plupart du temps, les prédictions algorithmiques ne font que confirmer, en leur donnant une amplitude plus ou moins grande, des lois sociales bien connues. » (Cardon, 2015, p. 65)
Société et technologie sont ainsi interdépendants et il serait faux de dire que les algorithmes changent la société sans prendre en compte que c’est la société elle-même qui a créé les algorithmes. Ainsi, par exemple, selon Michel Grossetti, les réseaux sociaux fonctionneraient de la même manière dans l’espace WEB que l’espace urbain (Grossetti, 2014). Toutefois, comme il constate un phénomène d’amplification à mesure que la masse d’individus s’élargit :
« Tout se passe comme si, lorsque la densité de population s’accroît, les contraintes relationnelles sont plus faibles […], ce qui favorise les affinités et donc les réseaux personnels socialement plus homogènes. Par ailleurs, en ville, les personnes que l’on fréquente dans le cadre d’activités différentes ont moins de chances de se connaître, ce qui explique la densité plus faible des réseaux. » (Grossetti, 2014).
Cette hypothèse nous permet par extension de nous demander si la densité particulièrement vaste de l’espace de communication au sein d’Internet n’amplifie pas également le problème de bulle idéologique. Si ceci n’enlève rien à la problématique de la responsabilité personnelle de l’utilisateur, elle relève par contre d’un défi pour les sciences de l’Homme qui se confrontent à un phénomène sociétal exacerbé par l’impact du numérique.
Le chercheur face aux informations numériques
La rapidité de transmission des informations apporte aujourd’hui un changement social majeur qui n’a pas son équivalent dans l’histoire de l’humanité. Alors que l’espace est généré en fonction du calcul de nos traces, la rapidité qu’une news mettra à atteindre le grand public est dépendante du nombre de clic. Les redéfinitions géographique et temporelle sont ainsi peut-être l’un des plus grands défis des chercheurs en sciences sociales. D’un côté, celui-ci les oblige à redéfinir leur notion d’espace dans un cadre moins matérialiste et d’un autre il leur demande d’acquérir de nouvelles compétences techniques pour être apte à analyser cet espace. Comme le dit Dominique Boullier :
« L’engagement des sciences sociales dans le monde numérique transformé par le Big Data et leur fonction réflexive nécessitent de leur part une véritable capacité à se laisser affecter […] Il est en effet quasiment impossible de penser le numérique sans devenir soi-même un producteur, un acteur qui expérimente, pour mieux entrer dans ces politiques des algorithmes qui tendent toujours à se refermer en boîte noire. » (Boullier, 2016, p. 320).
Ainsi, il parait aujourd’hui nécessaire, afin de pouvoir analyser les enjeux produit par ce nouvel espace social, que les chercheurs s’adaptent tant d’un côté technologique (comment récupérer les données ?), que théorique (comment analyser ces données ? notamment face à la masse d’informations) ou méthodologique (en évitant de tomber dans un rapport trop engagé critique ou enthousiaste) (Boullier, 2014), car comme le rappelle Dominique Cardon, « il est erroné de séparer les humains de leur environnement sociotechnique. » (Cardon, 2015, p.8) La technique est ainsi au centre de la réflexion du numérique dans la mesure où elle modifie l’espace. Société et technique sont ainsi interdépendants dans la fabrication de l’environnement : « les calculs ne calculent vraiment que dans une société qui a pris les plis spécifiques pour se rendre calculable. » (Cardon, 2015, p. 14) En ce qui concerne la question des algorithmes, la citation d’Alice Antheaume, qui s’est spécialisée sur les questions de journalisme numérique, est intéressante – « À l’ère numérique, ce sont les informations qui trouvent les lecteurs plutôt que l’inverse. » (Boullier, 2014, p.162) – et permet à Boullier de postuler que c’est tous les programmes de recherches qui s’intéressent à la réception des informations qui vont être modifiés.
Nous pouvons, en effet, voire qu’en plus de la pertinence de la citation de Antheaume, la masse informative et les algorithmes sont propres à bouleverser les théories du rapport de l’individu à l’information. Mais comment les analyser ? Alors qu’Eli Pariser s’est principalement basé sur des enquêtes qualitatives pour produire une enquête dont le résultat amène rapidement à une vision pessimiste de l’impact des algorithmes sur l’information, en parallèle, Eytan Bakshy procède à différentes études quantitatives qui suggèrent une vision bien plus engageante et positive de ce système mais dont la méthodologie est gardée secrète par Facebook et donc non-reproductible. Aucun des deux chercheurs n’est issus des sciences sociales et cela rappelle peut-être le problème de leurs études : ils sont tous les deux engagés dans une vision politique et idéaliste liée à leur profil de « travailleurs du WEB », c’est également le cas pour Viner qui défend ses intérêts dans le journalisme. C’est le premier défi des sciences sociales : s’affranchir du désir de juger Internet pour se concentrer sur des processus sociaux. Dans ce sens, l’étude de Bakshy amène le concept d’homophilie qui est fondamental dans la question de l’accès à l’informations.
Un autre problème réside dans la différence de méthodes des deux chercheurs : d’un côté une enquête qualitative, de l’autre une enquête quantitative. Les deux recherches sont convaincantes mais ne se rejoignent pas du tout. Le frein ici que rencontrent les chercheurs en sciences sociales, c’est leur incapacité à pouvoir accéder à la fameuse « boite noire », ce qui créé alors un rapport inégalitaire aux possibilités de recherches. Le chercheur devrait à la fois accéder au mieux aux données quantitatives autant que de pouvoir vérifier celles-ci avec des recherches qualitatives. Nous soulèverons un dernier point ici, c’est la course avec le temps. Aujourd’hui, une étude comme celle d’Eli Pariser est obsolète. Le WEB est un espace de mutation rapide qui laisse peu de place à des théories s’inscrivant sur le long terme. Il n’est de plus pas impossible que l’étude elle-même (en l’occurrence ici celle d’Eli Pariser) ait influencé la modification du système de Newsfeed de Facebook. Le chercheur peut alors certainement participer à modifier l’espace qu’il analysait jusqu’alors. Nous le comprenons, afin de s’assurer une qualité dans la recherche, le chercheur doit aujourd’hui être pluridisciplinaire.
Conclusion
Si le concept de « bulle de filtres » est délicat à être avérer car il incrimine les algorithmes en minimisant les effets du comportement social sur l’enfermement idéologique, il met tout de même en évidence l’influence de ces calculs sur le paysage numérique. Les problèmes évidents du changement de rapport à l’information qui ont été soulignés dans ce travail, avec notamment le partage rapide et massif de fake news sur les réseaux sociaux, sont plus liés à la problématique de la chambre d’écho. Les conséquences de l’homophilie et l’habitus social semblent aujourd’hui être démultipliées par l’impact du numérique. Les algorithmes enferment ainsi plus les individus en les encourageant dans leur pratique de l’information tout en restant le reflet de la société elle-même. Pour qu’un utilisateur soit confronté à des opinions variées il faudrait que dans ses actes et dans sa pratique du WEB il enseigne à l’algorithme son désir d’être diversement informé mais comme le dit Dominique Cardon, la plupart du temps, les algorithmes « nous enferment dans notre conformisme » (Cardon, 2015, p.70).
Pour le chercheur en sciences sociales qui s’intéresse au rapport que la société entretient avec les informations l’impact du changement d’échelle et de l’espace-temps demandent de redéfinir le cadre du travail habituel. La rapidité de diffusion des fake news, l’impact des traces numériques et des algorithmes sur la construction de l’espace, l’exacerbation des tendances homophiles sur les réseaux sociaux demandent aux chercheurs d’ouvrir leur champ de recherche mais également de se perfectionner dans la pratique d’Internet. C’est la pluridisciplinarité qui est aujourd’hui la clef de la compréhension de l’impact mutuel du social et de la technologie.
Bibliographie
- Bakshy, Eytan. 2012. Rethinking Information Diversity in Networks. [Site consulté le 19.12.2018] https://newsroom.fb.com/news/2012/01/rethinking-information-diversity-in-networks/
- Bakshy, Eytan, Messing Solomon et Adamic Lada A. 2015. Exposure to ideologically diverse news and opinion on Facebook. Science : Vol. 348, Issue 6239, pp. 1130-1132
- Beaude, Boris. 2012. Changer l’espace, changer la société. Limoges : FYP.
- Beaude, Boris. 2014. Les fins d’Internet. Limoges : FYP.
- Beaude, Boris. 2015. « Spatialités algorithmiques », dans Severo M. et Romele A (dir.), Traces numériques et territoires, Les débats du numérique, Paris : Presses des Mines, pp 133-160. (S.5/8)
- Beuscart, Jean-Samuel, Dagiral Éric. et Parasie, Sylvain. (2016). Sociologie d’internet. Paris : Armand Colin.
- Boullier, Dominique. 2015. « Les sciences sociales face aux traces du big data », in Revue française de science politique, 65, n° 5, p. 805–828.
- Boullier, Dominique. 2016. Sociologie du numérique, Paris : Armand Colin.
- Philippe, Julie. 2018. Dominique Boullier, sociologue du numérique : «Il faut prôner la connectivité lente», La Depeche.fr [Site consulté le 01.01.2019] https://www.ladepeche.fr/article/2018/04/25/2786760-dominique-boullier-sociologue-numerique-faut-proner-connectivite-lente.html
- Cardon, Dominique. 2016. La société des calculs sous la loupe de la sociologie – A quoi rêvent les algorithmes – Dominique Cardon [lecture]. Mais où va le web. [Site consulté le 19.12.2018] http://maisouvaleweb.fr/la-societe-des-calculs-sous-la-loupe-de-la-sociologie-a-quoi-revent-les-algorithmes-dominique-cardon-lecture/
- Cardon, Dominique. 2015. A quoi rêvent les algorithmes : Nos vies à l’heure des big data. Paris : Seuil.
- Curcio, Christelle. 2016-2017. « Bulle de filtre et démocratie », in Les Mondes numériques. Paris : UPEM. [Site consulté le 03.01.2019] http://pablobarbera.com/static/barbera_polarization_APSA.pdf
- Citton, Yves. 2014. Pour une écologie de l’attention. Paris : Seuil.
- Gunthert, André. Et si on arrêtait avec les bulles de filtre ? L’image sociale. [Site consulté le 19.12.2018] https://imagesociale.fr/3666
- Grossetti, Michel. 2014. Que font les réseaux sociaux aux réseaux sociaux ? Réseaux personnels et nouveaux moyens de communication. Réseaux 2014/2-3 (n° 184-185), p. 187 à 209. [site consulté le 10.12.2018] https://www.cairn.info/revue-reseaux-2014-2-page-187.htm
- 2016. Internet : l’illusion démocratique. Paris : La Différence.
- Newman, Nic, Fletcher Richard et Kalogeropoulos Antonis. 2018. Digital News Report 2018. Oxford : Reuters Institute [Site consulté le 19.12.2018] https://agency.reuters.com/content/dam/openweb/documents/pdf/news-agency/report/dnr-18.pdf
- Pariser, Eli. 2011. The Filter Bubble. What the Internet Is Hiding from You. New York : Penguin Books.
- Ségur, Philippe. 2017. L’internet et la démocratie du numérique. Perpignan : Presses Universitaires.
- Scruggs, John. 1998. The « echo chamber » approach to advocacy. USCF Library. [Site consulté le 19.12.2018] https://www.industrydocumentslibrary.ucsf.edu/tobacco/docs/#id=mgxn0061
- Viner, Katharine. 2016. How technology disrupted the truth, The Guardian. [Site consulté le 19.12.2018] https://www.theguardian.com/media/2016/jul/12/how-technology-disrupted-the-truth
Références Images
- http://news.social-dynamite.com/la-bulle-de-filtre
- https://blog.digimind.com/fr/tendances/peut-on-echapper-aux-bulles-de-filtrage-sur-les-reseaux-sociaux/
- https://newsroom.fb.com/news/2012/01/rethinking-information-diversity-in-networks/
- https://education.biu.ac.il/files/education/shared/science-2015-bakshy-1130-2.pdf
[1] Ici il est intéressant de remarquer que depuis 2011, Facebook propose de nombreuses possibilités nouvelles de paramétrage du fil d’actualité. Les problèmes rencontrés par Eli Pariser sont, sur ce réseau, nettement moins importants, ou alors au moins différents, qu’en 2011.