Visit our InstagramVisit our TwitterVisit our LinkedIn
Promouvoir l’exigence d’une information sincère pour une démocratie basée sur la confiance
Soutenir la fondation
Fondation Descartes

La Fondation Descartes est une initiative citoyenne, apartisane, indépendante et européenne dédiée aux enjeux de l’information, de la désinformation et du débat public dans une société démocratique.

Fonctionnement et gouvernances

La Fondation Descartes est animée par trois organes : un Conseil d’Administration présidé par Jean-Philippe Hecketsweiler ; un Conseil Scientifique encadré par Gérald Bronner et d’une équipe permanente, dirigée par Laurent Cordonier, Directeur de la recherche.

Nous contacter

Vous souhaitez contacter l’équipe permanente de la Fondation Descartes ?

Nos études

La Fondation Descartes est une initiative citoyenne, apartisane, indépendante et européenne dédiée aux enjeux de l’information, de la désinformation et du débat public dans une société démocratique.

Nos analyses

La Fondation Descartes est animée par trois organes : un Conseil d’Administration présidé par Jean-Philippe Hecketsweiler ; un Conseil Scientifique encadré par Gérald Bronner et d’une équipe permanente, dirigée par Laurent Cordonier, Directeur de la recherche.

Blog des experts

Vous souhaitez contacter l’équipe permanente de la Fondation Descartes ?

Nos colloques

La Fondation Descartes est une initiative citoyenne, apartisane, indépendante et européenne dédiée aux enjeux de l’information, de la désinformation et du débat public dans une société démocratique.

Nos partenariats

La Fondation Descartes est animée par trois organes : un Conseil d’Administration présidé par Jean-Philippe Hecketsweiler ; un Conseil Scientifique encadré par Gérald Bronner et d’une équipe permanente, dirigée par Laurent Cordonier, Directeur de la recherche.

Nos podcasts

Vous souhaitez contacter l’équipe permanente de la Fondation Descartes ?

Acteurs

La Fondation Descartes est une initiative citoyenne, apartisane, indépendante et européenne dédiée aux enjeux de l’information, de la désinformation et du débat public dans une société démocratique.

Initiatives

La Fondation Descartes est une initiative citoyenne, apartisane, indépendante et européenne dédiée aux enjeux de l’information, de la désinformation et du débat public dans une société démocratique.

Outils

La Fondation Descartes est animée par trois organes : un Conseil d’Administration présidé par Jean-Philippe Hecketsweiler ; un Conseil Scientifique encadré par Gérald Bronner et d’une équipe permanente, dirigée par Laurent Cordonier, Directeur de la recherche.

Références/ressources

Vous souhaitez contacter l’équipe permanente de la Fondation Descartes ?

Inscrivez-vous à la newsletter

Bulles de filtre et chambres d'écho

Deux phénomènes résultant du fonctionnement d’Internet sont souvent accusés d’avoir contribué à la polarisation des opinions : les « bulles de filtre » et les « chambres d’écho ». Nous introduisons dans cet article ces deux notions.
Télécharger la ressource

I - Les bulles de filtre

Une « bulle de filtre » désigne le mécanisme de filtrage de l’information parvenant à un usager d’Internet. Selon le spécialiste d’Internet Eli Pariser, les bulles de filtre résultent des dispositifs de personnalisation des contenus en ligne et auraient pour conséquence d’isoler intellectuellement les internautes et de réduire la diversité des informations auxquelles ils sont exposés (Eli Pariser, The Filter Bubble: What the Internet is Hiding from You, Penguin Press, 2011) 1 Par exemple, sur Facebook, un individu qui manifeste un intérêt marqué pour les chats verra le contenu de son fil d’actualité se remplir d’informations liées aux chats. Cette opération est gérée par les algorithmes des plateformes numériques, qui vont déterminer les intérêts de leurs utilisateurs en étudiant les informations liées à leur comportement en ligne.

Au départ, les informations collectées sur les internautes sont basiques : l’âge, le genre, les contacts ajoutés. Mais les nouveaux médias d’Internet ont intégré plusieurs outils qui permettent aujourd’hui de récolter des informations beaucoup plus précises sur leurs utilisateurs. Il s’agit notamment des boutons de « partage », de « like », « d’abonnement », etc., qui informent les algorithmes sur le comportement en ligne des utilisateurs. Facebook, par exemple, a introduit son bouton « j'aime » en 2009. Une semaine plus tard, 50 000 sites Internet avaient intégré ce bouton à leur architecture (Kris Olin, Facebook Advertising Guide, 2010). Par la présence de ce bouton sur de nombreux sites Internet, Facebook est en mesure de récolter quantité d’informations sur les internautes. Par exemple, en cliquant sur le bouton « j’aime » situé sous un produit lié aux chats, l’utilisateur envoie à Facebook une indication sur ses goûts et préférences. En retour, Facebook lui présentera désormais davantage de contenus sur les chats.

Les algorithmes des nouveaux médias sont ainsi capables de recommander du contenu de plus en plus personnalisé à leurs utilisateurs. Et plus les internautes fréquentent ces sites, plus les informations seront personnalisées et, donc, susceptibles de les intéresser. On le comprend, les algorithmes de personnalisation représentent un enjeu crucial pour les plateformes numériques : ils sont la clé de leur modèle économique. En effet, c’est grâce à ces algorithmes que les plateformes peuvent offrir aux entreprises la possibilité de faire de la publicité ciblée pour leurs produits – la publicité constitue la principale source de revenu des réseaux sociaux numériques 2. Les entreprises, de leur côté, sont prêtes à investir des sommes conséquentes pour s’assurer un ciblage publicitaire efficace 3.

Des conséquences délétères sur les utilisateurs ?

Selon Eli Pariser, la personnalisation de l’information sur Internet aurait un effet délétère pour les internautes : ils ne seraient plus confrontés à des informations susceptibles d’élargir leurs intérêts ou de remettre en question leurs croyances ou leurs opinions. Autrement dit, les internautes se retrouveraient progressivement enfermés dans une bulle de filtre court-circuitant toute information divergente et appauvrissant leur curiosité.

Bien sûr, avant l’avènement d’Internet, il existait déjà des médias proposant des informations très spécialisées ou ayant des lignes éditoriales marquées. Mais ils ne s’en cachaient pas. Or, Facebook, Youtube (qui appartient à Google) et les autres plateformes similaires ne se présentent pas comme des médias spécialisés, ni même comme des médias, mais comme de simples hébergeurs de contenus. Autrement dit, la spécialisation et l’orientation de l’information proposée se fait en partie à l’insu de l’utilisateur. Eli Pariser illustre ce point en comparant son résultat de recherche Google sur le mot « Egypte » avec celui de l’un de ces amis. A lui, Google présente des résultats sur la politique, tandis qu’à son ami, Google propose des liens touristiques. Autrement dit, l’algorithme façonne deux visions du monde différentes, visions fondées sur les déductions faites par les algorithmes à partir des informations personnelles collectées.

Eli Pariser estime que ces filtres de personnalisation sont en partie responsables de la polarisation politique particulièrement forte aux États-Unis entre libéraux et conservateurs. Les individus, à force d’être confrontés à des informations politiques ultra-personnalisées, en viendraient à ne plus rien partager avec leurs adversaires politiques, ce qui minerait toute possibilité d’établir un espace public au sens politique du terme – à savoir, un espace de délibération dont le bon fonctionnement présuppose de s’accorder sur un socle minimal de faits et d’informations.

Les bulles de filtre, un concept contesté

Si la personnalisation de l’information constitue bien une spécificité des médias Internet, certains chercheurs contestent l’existence ou la portée réelle des bulles de filtre censées en résulter. Richard Fletcher, chercheur au Reuters Institute et co-auteur du rapport annuel sur l’information digitale 4, nuance l’effet négatif qu’Eli Pariser attribue aux algorithmes des plateformes numériques et remet en question l’idée selon laquelle la polarisation politique aux États-Unis serait liée à la personnalisation de l’information 5. Son argumentation repose sur une série d’articles scientifiques qu’il a consacrés à la question.

Son raisonnement est le suivant : si les algorithmes de personnalisation appauvrissent notre horizon informationnel, cela signifie (1) que nous sommes confrontés à des informations moins diverses sur les réseaux sociaux numériques qu’hors ligne et (2) que cet appauvrissement se fait à notre insu. Or, voici ce qu’a pu observer Fletcher à partir de la base de données du grand sondage annuel Reuters Institute Digital News Report:.

  1. Les individus qui vont sur les réseaux sociaux sans chercher à s’informer sur l’actualité via ces réseaux seraient en fait exposés à une plus grande diversité de sources d’informations que les individus qui ne vont pas du tout sur les réseaux sociaux. Donc, contrairement à la théorie de la bulle de filtre, les individus qui ne manifestent aucun intérêt pour l’actualité sur les réseaux sociaux seraient tout de même exposés à un plus large panel de sources d’informations que les individus qui n’utilisent pas du tout ces réseaux sociaux. Les réseaux sociaux, loin d’enfermer les individus dans un nombre limité de sources d’informations (liées à leurs préférences), élargiraient en réalité les sources d’information des individus 6.
  2. Les individus qui utilisent des moteurs de recherche pour s’informer tendraient à être exposés à davantage de diversité dans l’orientation politique des informations proposées que les individus qui n’utilisent pas de moteur de recherche 7.

A rebours de la compréhension de Pariser, Fletcher considère donc que les réseaux sociaux augmentent la visibilité de l’actualité médiatique pour les individus – et ils seraient nombreux – qui ne sont pas particulièrement intéressés par l’actualité. Ces individus y seraient exposés malgré eux, parce que les algorithmes des réseaux sociaux rendent visibles des informations que ces personnes n’auraient pas recherchées par ailleurs.

Et Fletcher nous met en garde. En réalité, sans la personnalisation de l’information effectuée par les algorithmes, nous serions plutôt conservateurs dans notre façon de nous informer. Autrement dit, nous aurions tendance à sélectionner, par habitude, peu de sources d’information (une ou deux chaînes télévisées, un seul journal papier, etc.). L’utilisation des réseaux sociaux numériques et des moteurs de recherche sur Internet constituerait en fait une opportunité pour s’exposer à des sources d’informations que nous n’aurions jamais consultées spontanément.

II – Les chambres d’écho

Un constat sur lequel Fletcher et Pariser se rejoignent est celui de la forte polarisation politique aux Etats-Unis : les partisans des deux bords politiques semblent aujourd’hui irréconciliables. Mais, si l’on suit le raisonnement de Fletcher, cette polarisation ne résulterait pas de l’enfermement des citoyens américains dans des bulles de filtre, bien au contraire ! En effet, ses études suggèrent que plus nous sommes confrontés à des informations qui contredisent ce que nous pensons, plus nous serions inclinés à renforcer notre position initiale. Il s’agit là d’une réaction psychologique également documentée par d’autres chercheurs 8.

Pour de nombreux autres analystes, pourtant, la radicalisation des opinions sur Internet serait largement le fait de que l’on appelle des chambres d’écho. Sur Internet, les individus auraient tendance à échanger préférentiellement avec d’autres personnes qui s’intéressent aux mêmes sujets qu’eux et qui partagent des opinions proches des leurs. C’est ainsi que se formeraient des communautés virtuelles au sein desquelles les internautes partageraient et recevraient des informations focalisées sur leurs centres d’intérêt et conformes à leurs croyances. Si ces communautés sont qualifiées de chambres d’écho, c’est que la voix de chacun de leurs membres y ferait essentiellement écho à celle des autres. Fonctionnant comme des caisses de résonances de la vision du monde des individus, les chambres d’écho seraient un lieu de radicalisation des esprits.

L’un des cas emblématiques de cette dérive des chambres d’écho est la communauté des « Incels ». Cette communauté est née de la réunion d’hommes qui n’arrivaient pas à trouver de partenaire romantique et qui se sont regroupés en ligne pour discuter de leurs déboires affectifs. Rapidement, certains membres de la communauté se sont mis à exprimer des opinions de plus en plus ouvertement misogynes. Le groupe des Incels a alors suivi un schéma classique de radicalisation : émergence de meneurs, affirmation de plus en plus virulente de l’identité du groupe, exclusion progressive des autres groupes, isolement 9. Au final, une véritable théorie politique anti-féminine fût élaborée au sein de cette communauté. Quelques années après l’émergence de leur communauté, plusieurs Incels commirent des attaques contre des femmes, accusées d’être la cause directe de tous leurs malheurs 10.

De nombreux analystes travaillent à identifier les chambres d’écho sur Internet et à comprendre leur fonctionnement. En voici une illustration :

Cette carte montre les relations qu’entretiennent entre eux les médias américains sur le réseau social Twitter. Plus le point représentant un média donné est gros, plus le média en question est cité sur Twitter par d’autres médias. Les médias qui se trouvent loin du centre de la carte sont avant tout cités par d’autres médias à l’orientation politique proche de la leur. A l’inverse, plus un média se situe proche du centre de la carte, plus il est cité par des médias de tendances politiques variées. Sur cette carte, on constate l’existence d’une polarisation politique entre les médias américains. A gauche, les médias les plus populaires (Huffington Post, New York Times, Washington Post) sont cités par des médias plutôt proches de la tendance politique démocrate-libérale américaine (la ligne politique de Barack Obama et de Joe Biden). A droite, les médias les plus populaires (Fox News, Breibart) sont avant tout cités par des médias proches de la tendance républicaine-conservatrice (la ligne de Donald Trump).

Si des médias proches politiquement se citent fortement les uns les autres, diffusent les mêmes nouvelles et les mêmes analyses, le risque est que leurs lecteurs développent une vision très partielle et partisane de l’actualité. C’est ce que craignent certains analystes : la sphère médiatique aux Etats-Unis aurait tendance à se diviser en deux gigantesques chambres d’écho, représentant schématiquement les deux tendances politiques majoritaires aux États-Unis. Les partisans de chacune de ces tendances étant potentiellement inclinés à s’informer principalement dans la chambre d’écho correspondant à leur sensibilité politique, cela risque d’avoir pour conséquence de créer un champ politique extrêmement polarisé, au sein duquel chaque camp ne communique plus avec l’autre 11.

Mais là encore, peut-on considérer que l’architecture des réseaux sociaux soit responsable de la création de ces chambres d’écho ? L’une des ambiguïtés de l’analyse, justement soulevée par Axel Bruns 12, tient dans la confusion entre le phénomène des chambres d’écho et celui des bulles de filtre. Contrairement à ce que suggère le titre de l’article dont est issue la carte présentée ci-dessus, la polarisation de la communauté médiatique aux États-Unis n’illustre pas une bulle de filtre, car ce ne sont pas les algorithmes de Twitter qui organisent la façon dont les médias se suivent ou se citent entre eux.

Le point essentiel défendu par Axel Bruns et Richard Fletcher est qu’Internet ne créé pas de l’isolement informationnel ou idéologique.Au contraire, les tenants de camps opposés sur diverses questions polémiquent fortement sur les réseaux sociaux, des campagnes de troll sont organisées pour affaiblir l’adversaire, des contre-manifestations bien réelles sont organisées pour protester contre le camp opposé, etc. Autrement dit, s’il y a bien une polarisation croissante sur les réseaux sociaux, elle ne se matérialiserait pas par l’isolement de chaque camp dans une bulle de filtre ou au travers de chambres d’écho, mais dans d’intenses confrontations virtuelles.

L’important pour les analystes qui critiquent l’utilité des concepts de bulle de filtre et de chambre d’écho est alors de comprendre ce que font les individus des informations qui ne vont pas dans le sens de leur opinion et de trouver le moyen de transformer les réseaux sociaux en un espace public de délibération plutôt que de confrontation.

  1. Voir aussi : Pariser, Eli. Eli Pariser Nous Met En Garde Contre « Les Bulles de Filtres » En Ligne.  https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=fr.[]
  2. Facebook, par exemple, a engrangé près de 15 milliards de dollars de revenus publicitaires sur le premier trimestre 2019. Les revenus publicitaires représentent plus de 99% de ses sources de revenus: https://s21.q4cdn.com/399680738/files/doc_financials/2019/Q1/Q1-19-Press-Release.pdf[]
  3. Pour en apprendre davantage sur l’économie des plateformes, voir: Citton, Y. (Ed.) (2014). L'économie de l'attention: nouvel horizon du capitalisme? La Découverte.[]
  4. Nic Newman, Richard Fletcher, Antonis Kalogeropoulos, and Rasmus Kleis Nielsen. “Reuters Institute Digital News Report” (2019), Reuters Institute for the Study of Journalism.  https://ora.ox.ac.uk/objects/uuid:18c8f2eb-f616-481a-9dff-2a479b2801d0/download_file?file_format=pdf&safe_filename=reuters_institute_digital_news_report_2019.pdf&type_of_work=Report[]
  5. Voir sur ce point le texte d’Axel Bruns: It’s not the technology, stupid: “How the ‘Echo Chamber’ and ‘Filter Bubble’ metaphors have failed us.” In International Association for Media and Communication Research, 2019- 07-07.[]
  6. Fletcher, R., & Nielsen, R. K. (2018). Are people incidentally exposed to news on social media? A comparative analysis. New media & society, 20(7), 2450-2468.[]
  7. Fletcher, R., & Nielsen, R. K. (2018). Automated serendipity: The effect of using search engines on news repertoire balance and diversity. Digital Journalism, 6(8), 976-989.[]
  8. Voir notamment: Tucker, J. A., Guess, A., Barberá, P., Vaccari, C., Siegel, A., Sanovich, S., ... & Nyhan, B. (2018). Social Media, Political Polarization, and Political Disinformation: A Review of the Scientific Literature. March 19, 2018, http://dx.doi.org/10.2139/ssrn.3144139[]
  9. Sur le sujet : Hogg, M. A., & Adelman, J. (2013). Uncertainty-Identity Theory: Extreme Groups, Radical Behavior, and Authoritarian Leadership. Journal of Social Issues, 69(3), 436–454. doi:10.1111/josi.12023 []
  10. Pour plus d’informations sur cette communauté, voir: https://fr.wikipedia.org/wiki/Incel[]
  11. Cette théorie a été profondément analysée par une équipe de chercheurs de l’Université d’Harvard : Faris, Robert M., Hal Roberts, Bruce Etling, Nikki Bourassa, Ethan Zuckerman, and Yochai Benkler. 2017. “Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election.” Berkman Klein Center for Internet & Society Research Paper. https://dash.harvard.edu/bitstream/handle/1/33759251/2017-08_electionReport_0.pdf?sequence=9&isAllowed=y[]
  12. Bruns, A. (2019). Filter bubble. Internet Policy Review, 8(4).[]
PARTAGER L'ARTICLE
Suivre les actualités de la désinformation
S'inscrire à la newsletter
Soutenir nos actions
faire un don
Fonds de dotation pour la création de la Fondation Descartes
8, Avenue du Président Wilson 75116 Paris.
Plus d'informations
Mentions légales
Gestion des cookies
Contactez-nous
Copyright © 2024 - Site réalisé par Monsieurcom
crosschevron-down linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram